905 resultados para Advanced Encryption Standard
Resumo:
PURPOSE Updated results are presented after a median follow-up of 7.3 years from the phase III First-Line Indolent Trial of yttrium-90 ((90)Y) -ibritumomab tiuxetan in advanced-stage follicular lymphoma (FL) in first remission. PATIENTS AND METHODS Patients with CD20(+) stage III or IV FL with complete response (CR), unconfirmed CR (CRu), or partial response (PR) after first-line induction treatment were randomly assigned to (90)Y-ibritumomab consolidation therapy (rituximab 250 mg/m(2) days -7 and 0, then (90)Y-ibritumomab 14.8 MBq/kg day 0; maximum 1,184 MBq) or no further treatment (control). Primary end point was progression-free survival (PFS) from date of random assignment. Results For 409 patients available for analysis ((90)Y-ibritumomab, n = 207; control, n = 202), estimated 8-year overall PFS was 41% with (90)Y-ibritumomab versus 22% for control (hazard ratio [HR], 0.47; P < .001). For patients in CR/CRu after induction, 8-year PFS with (90)Y-ibritumomab was 48% versus 32% for control (HR, 0.61; P = .008), and for PR patients, it was 33% versus 10% (HR, 0.38; P < .001). For (90)Y-ibritumomab consolidation, median PFS was 4.1 years (v 1.1 years for control; P < .001). Median time to next treatment (TTNT) was 8.1 years for (90)Y-ibritumomab versus 3.0 years for control (P < .001) with approximately 80% response rates to second-line therapy in either arm, including autologous stem-cell transplantation. No unexpected toxicities emerged during long-term follow-up. Estimated between-group 8-year overall survival rates were similar. Annualized incidence rate of myelodysplastic syndrome/acute myeloblastic leukemia was 0.50% versus 0.07% in (90)Y-ibritumomab and control groups, respectively (P = .042). CONCLUSION (90)Y-ibritumomab consolidation after achieving PR or CR/CRu to induction confers 3-year benefit in median PFS with durable 19% PFS advantage at 8 years and improves TTNT by 5.1 years for patients with advanced FL.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
BACKGROUND: Gefitinib is active in patients with pretreated non-small-cell lung cancer (NSCLC). We evaluated the activity and toxicity of gefitinib first-line treatment in advanced NSCLC followed by chemotherapy at disease progression. PATIENTS AND METHODS: In all, 63 patients with chemotherapy-naive stage IIIB/IV NSCLC received gefitinib 250 mg/day. At disease progression, gefitinib was replaced by cisplatin 80 mg/m(2) on day 1 and gemcitabine 1250 mg/m(2) on days 1, 8 for up to six 3-week cycles. Primary end point was the disease stabilization rate (DSR) after 12 weeks of gefitinib. RESULTS: After 12 weeks of gefitinib, the DSR was 24% and the response rate (RR) was 8%. Median time to progression (TtP) was 2.5 months and median overall survival (OS) 11.5 months. Never smokers (n = 9) had a DSR of 56% and a median OS of 20.2 months; patients with epidermal growth factor receptor (EGFR) mutation (n = 4) had a DSR of 75% and the median OS was not reached after the follow-up of 21.6 months. In all, 41 patients received chemotherapy with an overall RR of 34%, DSR of 71% and median TtP of 6.7 months. CONCLUSIONS: First-line gefitinib monotherapy led to a DSR of 24% at 12 weeks in an unselected patients population. Never smokers and patients with EGFR mutations tend to have a better outcome; hence, further trials in selected patients are warranted.
Resumo:
Par le biais d'une procédure Test-Retest, la stabilité à long terme des indices standard du WISC-IV français a été évaluée. L'intervalle moyen entre les deux passations est de 2,33 ans. L'échantillon comprend 96 enfants « tout venant » âgés de huit à 12 ans. Les comparaisons entre les moyennes des deux passations ne montrent pas de différence significative pour indice de compréhension verbale (ICV), indice de raisonnement perceptif (IRP), indice de mémoire de travail (IMT), indice d'aptitude générale (IAG) et QIT. Au niveau interindividuel, les coefficients de corrélations témoignent d'une bonne stabilité à long terme pour ICV, IAG et QIT (allant de 0,81 à 0,82). Une analyse des différences de performances entre les deux passations indique une stabilité intra-individuelle satisfaisante pour IMT et IAG. Seul IAG présente donc une stabilité à long terme satisfaisante au niveau inter- et intra-individuel. By a Test-Retest procedure, this study explores the long-term stability of the French WISC-IV index scores. The average Test-Retest interval was 2.33 years. The sample consisted of 96 non-clinical children aged between 8 and 12 years. Mean difference between the two testings was not statistically significant for VCI, PRI, WMI, GAI and FSIQ. Test-Retest reliability correlations between the two assessments are high for VCI, GAI and FSIQ (ranging from .81 to .82). An analysis of the performance differences between two assessments indicates intra-individual stability for WMI and GAI. In sum, only GAI demonstrates reliable long-term stability at an inter-and intra-individual level.
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
BACKGROUND AND OBJECTIVES: Donor cytomegalovirus seropositivity was reported to improve leukemia outcomes in HLA-A2 identical hematopoietic cell transplant (HCT) recipients, due to a possible cross-reactivity of donor HLA-A2-restricted CMV-specific T cells with minor histocompatibility (H) antigen of recipient cells. This study analyzed the role of donor CMV serostatus and HLA-A2 status on leukemia outcomes in a large population of HLA-identical HCT recipients. DESIGN AND METHODS: Leukemia patients transplanted between 1992 and 2003 at the Fred Hutchinson Cancer Research Center were categorized as standard risk [leukemia first remission, chronic myeloid leukemia in chronic phase (CML-CP)] and high risk (advanced disease) patients. Time-to-event analysis was used to evaluate the risk of relapse and death associated with HLA-A2 status and donor CMV serostatus. RESULTS: In standard risk patients, acute leukemia (p<0.001) and sex mismatch (female to male, p=0.004)) independently increased the risk of death, while acute leukemia increased the risk of relapse (p<0.001). In high risk patients acute leukemia (p=0.01), recipient age > or = 40 (p=0.005) and herpes simplex virus (HSV) seropositivity (p<0.001) significantly increased the risk death; HSV seropositivity (p=0.006) increased the risk of relapse. Donor CMV serostatus had no significant effect on mortality or relapse in any HLA group. INTERPRETATION AND CONCLUSION: This epidemiological study did not confirm the previously reported effect of donor CMV serostatus on the outcomes of leukemia in HLA-A2-identical HCT recipients. Addressing the question of cross-reactivity of HLA-A2-restricted CMV-specific T cells with minor H antigens in a clinical study would require knowledge of the patient's minor H antigen genotype. However, because of the unbalanced distribution of HLA-A2-restricted minor H antigens in the population and their incomplete identification, this question might be more appropriately evaluated in in vitro experiments than in a clinical study.
Resumo:
PURPOSE: To compare clinical benefit response (CBR) and quality of life (QOL) in patients receiving gemcitabine (Gem) plus capecitabine (Cap) versus single-agent Gem for advanced/metastatic pancreatic cancer. PATIENTS AND METHODS: Patients were randomly assigned to receive GemCap (oral Cap 650 mg/m(2) twice daily on days 1 through 14 plus Gem 1,000 mg/m(2) in a 30-minute infusion on days 1 and 8 every 3 weeks) or Gem (1,000 mg/m(2) in a 30-minute infusion weekly for 7 weeks, followed by a 1-week break, and then weekly for 3 weeks every 4 weeks) for 24 weeks or until progression. CBR criteria and QOL indicators were assessed over this period. CBR was defined as improvement from baseline for >or= 4 consecutive weeks in pain (pain intensity or analgesic consumption) and Karnofsky performance status, stability in one but improvement in the other, or stability in pain and performance status but improvement in weight. RESULTS: Of 319 patients, 19% treated with GemCap and 20% treated with Gem experienced a CBR, with a median duration of 9.5 and 6.5 weeks, respectively (P < .02); 54% of patients treated with GemCap and 60% treated with Gem had no CBR (remaining patients were not assessable). There was no treatment difference in QOL (n = 311). QOL indicators were improving under chemotherapy (P < .05). These changes differed by the time to failure, with a worsening 1 to 2 months before treatment failure (all P < .05). CONCLUSION: There is no indication of a difference in CBR or QOL between GemCap and Gem. Regardless of their initial condition, some patients experience an improvement in QOL on chemotherapy, followed by a worsening before treatment failure.
Reliability of transient elastography for the diagnosis of advanced fibrosis in chronic hepatitis C.
Resumo:
Oxalic and oxamic acids are the ultimate and more persistent by-products of the degradation of N-aromatics by electrochemical advanced oxidation processes (EAOPs). In this paper, the kinetics and oxidative paths of these acids have been studied for several EAOPs using a boron-doped diamond (BDD) anode and a stainless steel or an air-diffusion cathode. Anodic oxidation (AO-BDD) in the presence of Fe2+ (AO-BDD-Fe2+) and under UVA irradiation (AO-BDD-Fe2+-UVA), along with electro-Fenton (EF-BDD), was tested. The oxidation of both acids and their iron complexes on BDD was clarified by cyclic voltammetry. AO-BDD allowed the overall mineralization of oxalic acid, but oxamic acid was removed much more slowly. Each acid underwent a similar decay in AO-BDD-Fe2+ and EFBDD, as expected if its iron complexes were not attacked by hydroxyl radicals in the bulk. The faster and total mineralization of both acids was achieved in AO-BDD-Fe2+-UVA due to the high photoactivity of their Fe(III) complexes that were continuously regenerated by oxidation of their Fe(II) complexes. Oxamic acid always released a larger proportion of NH4 + than NO3- ion, as well as volatile NOx species. Both acids were independently oxidized at the anode in AO-BDD, but in AO-BDD-Fe2+-UVA oxamic acid was more slowlydegraded as its content decreased, without significant effect on oxalic acid decay. The increase in current density enhanced the oxidation power of the latter method, with loss of efficiency. High Fe2+ contents inhibited the oxidation of Fe(II) complexes by the competitive oxidation of Fe2+ to Fe3+. Low current densities and Fe2+ contents are preferable to remove more efficiently these acids by the most potent AO-BDD-Fe2+-UVA method.
Resumo:
The objective of this analysis was to assess the radiation exposure associated with (90)Y-ibritumomab tiuxetan when used as consolidation therapy in adults with low or minimal tumor burden after first-line therapy of advanced follicular lymphoma (FL). METHODS: The patients who were enrolled in the phase 3 first-line indolent trial were 18 y or older, with CD20(+) grade 1 or 2 stage III or IV FL, and a partial response, complete response, or unconfirmed complete response to first-line chemotherapy. The patients were allocated randomly to receive a single infusion of unlabeled rituximab 250 mg/m(2) on day -7 and consolidation on day 0 with a single dose of (90)Y-ibritumomab tiuxetan, 14.8 MBq/kg, immediately after unlabeled rituximab, 250 mg/m(2), or no further treatment. On day -7, a subset of patients received an injection of 185 MBq of (111)In-ibritumomab tiuxetan immediately after unlabeled rituximab, 250 mg/m(2), for central dosimetry analysis. Correlations were assessed between organ radiation absorbed dose and toxicity, body weight, body mass index, and progression-free survival. RESULTS: Central dosimetry evaluations were available from 57 of 70 patients. Median radiation absorbed doses were 100 cGy (range, 28-327 cGy) for the red marrow and 72 cGy (range, 46-106 cGy) for the whole body. Radiation absorbed doses did not differ significantly between patients who had a partial response or complete response to initial therapy. Progression-free survival correlated significantly with the whole-body (r = 0.4401; P = 0.0006) and bone marrow (r = 0.2976; P = 0.0246) radiation dose. Body weight was significantly negatively correlated with whole-body radiation dose (r = -0.4971; P < 0.0001). Neither the whole-body radiation dose nor the bone marrow radiation dose correlated with hematologic toxicity. CONCLUSION: In patients with low or minimal residual tumor burden after first-line chemotherapy of advanced FL, whole-body and bone marrow exposure after (90)Y-ibritumomab tiuxetan consolidation showed a significant positive correlation with progression-free survival, whereas dosimetric data could not predict hematologic toxicity.
Resumo:
We evaluated midterm patient-reported outcomes and satisfaction with total hip arthroplasty in patients who had severe juvenile idiopathic arthritis. Thirty-one patients (49 hips), with a mean age of 29 years (range, 16-43 years), reported low hip pain and stiffness at follow-up (mean, 7 years; range, 3-17 years). Up to 92% were satisfied with their ability to perform various activities; 96% were satisfied with pain relief. A mean postoperative flexion arc of 96° was observed. Final 36-Item Short Form Health Survey, EuroQol in 5 dimensions, Western Ontario and McMaster Universities Arthritis Index, and Harris Hip scores were lower than reference populations, particularly for mobility, physical functioning, and social functioning subscores. Young adults with end-stage hip involvement and severe longstanding juvenile idiopathic arthritis expressed high satisfaction with total hip arthroplasty, which improved range of motion, pain, and stiffness, despite poor performance on widely used outcome measures.
Resumo:
Patients diagnosed with advanced gastrointestinal stromal tumours (GISTs) who are resistant or intolerant to both imatinib and second-line sunitinib have a poor prognosis and few therapeutic options. We evaluated the efficacy of nilotinib, a novel tyrosine kinase inhibitor (TKI) in patients pretreated with imatinib and sunitinib. Fifty-two consecutive patients treated with oral nilotinib, 400mg twice daily, within the nilotinib compassionate use programme in 12 European cancer centres, were included in this retrospective analysis. Median age was 59 years (range 24-80), and all patients had WHO performance score better than 3. All patients had failed both imatinib and sunitinib pretreatment, either due to progressing GIST (96%) or intolerance (4%). Five patients (10%; 95% confidence interval (CI) 2-18) responded to nilotinib and 19 patients (37%; 95% CI 24-50) achieved a disease stabilisation. Nilotinib was generally well tolerated, but six patients (12%) discontinued treatment due to intolerance. Median progression-free survival of nilotinib treatment was 12 weeks (95% CI 9-15; range 0-104) and median overall survival was 34 weeks (95% CI 3-65; range 2-135). Nilotinib is active in GIST resistant to both imatinib and sunitinib. These results warrant further investigation of nilotinib in GIST.