935 resultados para Processeur réseau
Resumo:
Dans le cadre de la surveillance des rejets non actifs de l’usine AREVA NC, les concentrations de différents éléments et substances chimiques sont suivies dans des moules (Mytilus Edulis) sur les points Goury et Moulinets. Ce rapport présente les résultats pour l’année 2015. Les variations saisonnières sont présentées pour chaque paramètre surveillé. Les teneurs mesurées sont comparées aux données nationales et régionales du Réseau d’Observation de la contamination chimique (ROCCH).
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.
Resumo:
Au Sénégal, les maladies diarrhéiques constituent un fardeau important, qui pèse encore lourdement sur la santé des enfants. Ces maladies sont influencées par un large éventail de facteurs, appartenant à différents niveaux et sphères d'analyse. Cet article analyse ces facteurs de risque et leur rôle relatif dans les maladies diarrhéiques de l'enfant à Dakar. Ce faisant, elle illustre une nouvelle approche pour synthétiser le réseau de ces déterminants. Une analyse en classes latentes (LCA) est d’abord menée, puis les variables latentes ainsi construites sont utilisées comme variables explicatives dans une régression logistique sur trois niveaux. Les résultats confirment que les déterminants des diarrhées chez l'enfant appartiennent aux trois niveaux d'analyse et que les facteurs comportementaux et l'assainissement du quartier jouent un rôle prépondérant. Les résultats illustrent aussi l'utilité des LCA pour synthétiser plusieurs indicateurs, afin de créer une image causale intégrée, tout en utilisant des modèles statistiques parcimonieux.
Resumo:
Depuis le début du XXIe siècle, un type particulier d’images a envahi l’espace public constitué par Internet : il s’agit des images principales de profil, ces images que les utilisateurs de sites de réseaux sociaux choisissent pour les représenter auprès des autres individus connectés. Comme le plus souvent il s’agit d’une image du corps de celui ou celle qui s’affiche ainsi, il est intéressant de s’intéresser à cette pratique en la rattachant à des pratiques plus anciennes. Dans un premier temps, cette étude présente donc une perspective socio-historique en notant la ressemblance de la pratique de l’image principale de profil avec celle de l’autoportrait et du portrait commandé. Cela permet de remarquer plusieurs points de rupture ou d’inflexion dans l’usage de ce type d’images, mais aussi d’en dégager les usages sociaux typiques. Ensuite, l’observation d’un lieu particulier d’Internet permet de tirer les conclusions suivantes : si l’usage principal de ces images est facile à expliquer, elles servent à symboliser une présence dans des lieux non accessibles aux corps sensibles, ces images montrent toujours des éléments qui permettent de déduire une position sociale et elles sont fondamentalement identiques aux images produites avant Internet. Ensuite, l’étude de ces images montre qu’il y a un véritable continuum dans la manière de dévoiler son intimité qui permet d’affirmer que la frontière entre public et privé n’existe pas sur Internet. Finalement, ces images montrent une absence de canon quant à leur production et une multiplicité des façons de se mettre en scène qui laissent à penser qu’elles sont devenues des symboles à part entière dans la communication qui peut s’établir entre des étrangers sur Internet.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.
Resumo:
Contexte: La douleur chronique non cancéreuse (DCNC) génère des retombées économiques et sociétales importantes. L’identification des patients à risque élevé d’être de grands utilisateurs de soins de santé pourrait être d’une grande utilité; en améliorant leur prise en charge, il serait éventuellement possible de réduire leurs coûts de soins de santé. Objectif: Identifier les facteurs prédictifs bio-psycho-sociaux des grands utilisateurs de soins de santé chez les patients souffrant de DCNC et suivis en soins de première ligne. Méthodologie: Des patients souffrant d’une DCNC modérée à sévère depuis au moins six mois et bénéficiant une ordonnance valide d’un analgésique par un médecin de famille ont été recrutés dans des pharmacies communautaires du territoire du Réseau universitaire intégré de santé (RUIS), de l’Université de Montréal entre Mai 2009 et Janvier 2010. Ce dernier est composé des six régions suivantes : Mauricie et centre du Québec, Laval, Montréal, Laurentides, Lanaudière et Montérégie. Les caractéristiques bio-psycho-sociales des participants ont été documentées à l’aide d’un questionnaire écrit et d’une entrevue téléphonique au moment du recrutement. Les coûts directs de santé ont été estimés à partir des soins et des services de santé reçus au cours de l’année précédant et suivant le recrutement et identifiés à partir de la base de données de la Régie d’Assurance maladie du Québec, RAMQ (assureur publique de la province du Québec). Ces coûts incluaient ceux des hospitalisations reliées à la douleur, des visites à l’urgence, des soins ambulatoires et de la médication prescrite pour le traitement de la douleur et la gestion des effets secondaires des analgésiques. Les grands utilisateurs des soins de santé ont été définis comme étant ceux faisant partie du quartile le plus élevé de coûts directs annuels en soins de santé dans l’année suivant le recrutement. Des modèles de régression logistique multivariés et le critère d’information d’Akaike ont permis d’identifier les facteurs prédictifs des coûts directs élevés en soins de santé. Résultats: Le coût direct annuel médian en soins de santé chez les grands utilisateurs de soins de santé (63 patients) était de 7 627 CAD et de 1 554 CAD pour les utilisateurs réguliers (188 patients). Le modèle prédictif final du risque d’être un grand utilisateur de soins de santé incluait la douleur localisée au niveau des membres inférieurs (OR = 3,03; 95% CI: 1,20 - 7,65), la réduction de la capacité fonctionnelle liée à la douleur (OR = 1,24; 95% CI: 1,03 - 1,48) et les coûts directs en soins de santé dans l’année précédente (OR = 17,67; 95% CI: 7,90 - 39,48). Les variables «sexe», «comorbidité», «dépression» et «attitude envers la guérison médicale» étaient également retenues dans le modèle prédictif final. Conclusion: Les patients souffrant d’une DCNC au niveau des membres inférieurs et présentant une détérioration de la capacité fonctionnelle liée à la douleur comptent parmi ceux les plus susceptibles d’être de grands utilisateurs de soins et de services. Le coût direct en soins de santé dans l’année précédente était également un facteur prédictif important. Améliorer la prise en charge chez cette catégorie de patients pourrait influencer favorablement leur état de santé et par conséquent les coûts assumés par le système de santé.
Resumo:
Après un rappel des objectifs, du fonctionnement et de la méthode d’interprétation des résultats du réseau de contrôle microbiologique des zones de production conchylicoles (REMI) et du réseau d’observation de la contamination chimique (ROCCH), ce rapport inclut un bilan national et décrit le programme annuel du département des Côtes d’Armor (22). Il présente l’ensemble des résultats obtenus, en particulier l’estimation de la qualité microbiologique et chimique des zones de production de coquillages classées. Pour la deuxième fois consécutive, les résultats du suivi microbiologique sont globalement bons dans le département des Côtes d’Armor. Les alertes ont été également peu nombreuses. Il y en a eu cinq de niveau 1 et une de niveau 2. L’estimation de la qualité sanitaire s’améliore en 2015 notamment pour les fouisseurs, mais les résultats de l’année 2013 pénalisent encore certaines zones proches de la bonne qualité. Il n’existe plus de zone présentant une mauvaise ou très mauvaise qualité sanitaire dans les Côtes d’Armor.
Resumo:
Après un rappel des objectifs, du fonctionnement et de la méthode d’interprétation des résultats du réseau de contrôle microbiologique des zones de production conchylicoles (REMI) et du réseau d’observation de la contamination chimique (ROCCH), ce rapport inclut un bilan national et décrit le programme annuel du département de l’Ille-et-Vilaine (35). Il présente l’ensemble des résultats obtenus, en particulier l’estimation de la qualité microbiologique et chimique des zones de production de coquillages classées. Pour la deuxième année consécutive, les résultats du suivi microbiologique sont globalement bons dans le département d’Ille-et-Vilaine. Les alertes ont été également très peu nombreuses, une seule alerte en centre Rance en 2015 est recensée. L’estimation de la qualité sanitaire s’améliore en 2015 pour quelques sites. Par exemple en baie du Mont Saint- Michel où trois zones sont estimées de bonne qualité. Mais les résultats de l’année 2013 pénalisent encore certaines zones conchylicoles, notamment en Rance et en baie de Saint-Malo ou la situation reste fragile. Cela concerne notamment deux zones estimées en très mauvaise qualité. Deux autres zones, en baie de Saint-Malo et dans l’estuaire de la Rance, actuellement classées B, ne disposent pas d’assez de données pour pouvoir estimer leur qualité. La récupération des échantillons provenant de ces zones est dépendante de la collaboration des pêcheurs. Une convention avec le CDPMEM 35 (Comité Départementale des Pêches Maritimes et des Elevages Marin d’Ille-et-Vilaine) a été signée en novembre 2015 pour améliorer la situation.
Resumo:
Les essais d'aptitude par comparaison inter-laboratoires ou inter-analystes sont utilisés pour évaluer les performances des laboratoires ou analystes sur des compétences spécifiques. Un exercice d’inter-comparaison international est organisé tous les ans par le Marine Institute Phytoplankton unit de Galway (Ireland), sous couvert du NMBAQC-BEQUALM, pour évaluer les performances en identification et en dénombrement du phytoplancton marin. La détermination des espèces phytoplanctoniques et l’estimation de leur abondance dans le cadre du Réseau d’observation et de surveillance du Phytoplancton et de l’Hydrologie, mis en oeuvre par l’Ifremer (REPHY) s’appuie sur 28 analystes, répartis dans 11 laboratoires. Onze d’entre eux ont été inscrits à titre individuel en 2015 pour participer à l’inter-comparaison réalisé par le Marine Institute de Galway (ICN-BEQUALM). Les échantillons envoyés aux analystes concernés ont été utilisés pour évaluer aussi les compétences des analystes non-inscrits à l’ICN-BEQUALM, mais réalisant également des analyses de phytoplancton dans ces mêmes laboratoires pour le REPHY. L’analyse statistique des résultats s’appuie sur la même mesure de performance que celle utilisée par le Marine Institute. Ce rapport décrit le déroulement de l’ICN-BEQUALM et de l’essai complémentaire Ifremer (EIA) et, présente seulement les résultats obtenus pour l’essai Ifremer. L'objectif est d'apporter des éléments à l'ensemble du personnel du REPHY afin d'entretenir une amélioration continue des pratiques et de déterminer des actions à mettre en oeuvre pour cette amélioration. En terme d'identification des taxa, les résultats reçus montrent que les analystes sont hautement qualifiés dans l'identification du phytoplancton marin et démontrent qu'il existe un consensus parmi les analystes sur la majorité des identifications des espèces présentes dans les échantillons de cet essai. Toutefois, des formations ciblées sur les espèces des genres Pseudo-nitszschia et Guinardia sont à envisager pour certains analystes. L'analyse des résultats des dénombrements obtenus cette année a mis principalement en évidence l'importance de la bonne application des protocoles et des instructions particulièrement en ce qui concerne la maitrise de la préservation des échantillons. Cette dernière, repose en grande partie sur les conditions ambiantes de stockage et sur les délais d'analyse. Les différents exercices d'inter-comparaison qui ont été menés jusqu'à présent apportent souvent des éléments différents et complémentaires. Ils s'intègrent dans la démarche qualité, et devront, avec leur pérennisation, attester des bonnes pratiques et de leur optimisation. L'Ifremer, prévoit donc de faire participer chaque année à l'ICN-BEQUALM un tiers des analystes du REPHY et continuer aussi l’évaluation des différents analystes.
Resumo:
L’Ifremer est chargé d’apporter à l’État et aux autres personnes morales de droit public son concours pour l’exercice de leurs responsabilités notamment pour le contrôle de la qualité des produits de la mer et du milieu marin. La mise en œuvre d’un Réseau d'Observation et de Surveillance du Phytoplancton et des Phycotoxines (REPHY) depuis sa création en 1984, répond à cette mission et le concours apporté à l’Administration Centrale se concrétise en un soutien aux autorités publiques dont la Direction Générale de l’Alimentation (DGAL) du Ministère de l’Agriculture, de l’Agroalimentaire et de la Forêt (MAAF), pour ce qui concerne l’application de la réglementation relative au suivi de la salubrité des zones de production de coquillages. Un changement majeur dans la stratégie de surveillance réglementaire des toxines lipophiles est intervenu au 1er janvier 2010, avec le remplacement du bio-essai sur souris par une analyse chimique en CL-SM/SM. Afin de mettre en évidence d’éventuelles substances toxiques non détectables via l'analyse chimique des toxines lipophiles répertoriées, la surveillance réglementaire a été complété à la même date par un dispositif de vigilance basé sur un réseau de lieux de prélèvement (points de vigilance), sur lesquels une stratégie d'échantillonnage spécifique est appliquée, avec prélèvements mensuels systématiques de mollusques qui font l’objet à la fois d’une analyse chimique des toxines lipophiles en CL-SM/SM et d’un test sur souris. Suite à la mise en place de ce dispositif de vigilance en 2010, certaines évolutions ont été appliquées les années suivantes. Ce rapport présente les évolutions apportées au dispositif, les résultats obtenus en 2015 et les évolutions proposées pour 2016.
Resumo:
The coastal zone of the Nord – Pas de Calais / Picardie showed dysfonctioning patterns of the ecosystem considered to be link to human activities along shores. These results in regular massive development of species, such as the phytoplanktonic seaweed, Phaeocystis sp. which life cycle was partly linked to nutrients availability and consequently to anthropogenic inputs. As part of the evaluation of the influence of continental inputs on the marine environment (nitrates, phosphates,…) and on potential eutrophication processes, of the estimation of the efficiency of the sewage treatments plants in the possible elimination of dumpings and in order to establish a long-term survey to follow up the change in coastal waters quality, the regional nutrients monitoring network was implemented by Ifremer in collaboration with the Agence de l'Eau Artois-Picardie in 1992 in order to complete the REPHY (Phytoplankton and Phycotoxins) monitoring programme. This study reports the main results for the year 2015 in terms of temporal change of the main physico-chemical and biological parameters characteristic of water masses sampled along three transects offshore Dunkerque, Boulogne-sur-Mer and the Bay of Somme.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
The marine diatom Haslea ostrearia [1] produces a water-soluble blue-pigment named marennine [2] of economic interest. But the lack of knowledge of the ecological conditions, under which this microalga develops in its natural ecosystem, more especially bacteria H. ostrearia interactions, prevents any optimization of its culture in well-controlled conditions. The structure of the bacterial community was analyzed by PCR-TTGE before and after the isolation of H. ostrearia cells recovered from 4 localities, to distinguish the relative part of the biotope and the biocenose and eventually to describe the temporal dynamic of the structure of the bacterial community at two time-scales. The differences in genetic fingerprints, more especially high between two H. ostrearia isolates (HO-R and HO-BM) showed also the highest differences in the bacterial structure [3] as the result of specific metabolomics profiles. The non-targeted metabolomic investigation showed that these profiles were more distinct in case of bacteria-alga associations than for the H. ostrearia monoculture Here we present a Q-TOF LC/MS metabolomic fingerprinting approach [3]: - to investigate differential metabolites of axenic versus non axenic H. ostrearia cultures. - to focus on the specific metabolites of a bacterial surrounding associated with the activation or inhibition of the microalga growing. The Agilent suite of data processing software makes feature finding, statistical analysis, and identification easier. This enables rapid transformation of complex raw data into biologically relevant metabolite information.
Resumo:
Thèse réalisée en cotutelle avec l'université Paris1-Sorbonne