932 resultados para Flow rate variation coefficient
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Química e Biológica
Resumo:
Nesta dissertação pretende-se caracterizar o desempenho energético de um grande edifício de serviços existente, da tipologia ensino, avaliar e identificar potenciais medidas que melhorem aquele desempenho, permitindo, em complemento, determinar a sua classificação energética no âmbito da legislação vigente. A pertinência do estudo prende-se com a avaliação do desempenho energético dos edifícios e com o estudo de medidas de melhoria que permitam incrementar a eficiência energética, por recurso a um programa de simulação energética dinâmica certificado – DesignBuilder e tendo em conta a regulamentação portuguesa em vigor. Inicialmente procedeu-se à modelação do edifício com recurso ao programa DesignBuilder, e, simultaneamente, realizou-se um levantamento de todas as suas características ao nível de geometria, pormenores construtivos, sistemas AVAC e de iluminação e fontes de energia utilizadas. Com vista à caracterização do modo de operação do edifício, foi realizado um levantamento dos perfis reais de utilização em termos de ocupação, iluminação e equipamentos para os vários espaços. Foram realizadas medições de caudais de ar novo e da temperatura do ar, em alguns equipamentos e alguns espaços específicos. Foram realizadas medições em tempo real e leituras de contagens da energia eléctrica utilizada, quer em período de aulas quer em período de férias, que permitiram a desagregação das facturas da energia eléctrica que se apresentam globais para o campus do ISEP. Foram realizadas leituras de contagens de gás natural. Em sequência, foi realizada a simulação energética dinâmica com o intuito de ajustar o modelo criado aos consumos reais e de analisar medidas de melhoria que lhe conferissem um melhor desempenho energético. Essas medidas são agrupadas em quatro tipos: - Medidas de natureza comportamental; - Medidas de melhoria da eficiência energética nos sistemas de iluminação; - Medidas de melhoria de eficiência energética nos sistemas AVAC;- Medidas que visam a introdução de energias de fonte renovável; Em sequência, foi elaborada a simulação nominal e calculados os indicadores de eficiência energética com vista à respectiva classificação energética do edifício, tendo o edifício apresentado uma Classe Energética D de acordo com a escala do SCE. Finalmente, foi avaliado o impacto das diferentes medidas de melhoria identificadas e com potencial de aplicação, isto é, que apresentaram um retorno simples do investimento inferior a oito anos, tanto ao nível do desempenho energético real do edifício, como ao nível da sua classificação energética. De onde se concluiu que existe um potencial de 7% de redução nos consumos energéticos actuais do edifício e de 18% se o funcionamento do edifício for em pleno, ou seja, se todos os seus sistemas estiverem efectivamente em funcionamento, e que terá impacto na classificação energética alcançado uma Classe Energética C.
Resumo:
Master Thesis to obtain the Master degree in Chemical Engineering - Branch Chemical Processes
Resumo:
Em Portugal existem muitos espaços comerciais e industriais em que as necessidades térmicas de arrefecimento são muito superiores às necessidades de aquecimento devido aos ganhos internos que advêm da existência de equipamentos e da iluminação dos edifícios, assim como, da presença das pessoas. A instalação de sistemas convencionais de ar condicionado para espaços comerciais e industriais de grande dimensão está geralmente associada ao transporte de grandes caudais de ar, e consequentemente, a elevados consumos de energia primária, e também, elevados custos de investimento, de manutenção e de operação. O arrefecedor evaporativo é uma solução de climatização com elevada eficiência energética, cujo princípio de funcionamento promove a redução do consumo de energia primária nos edifícios. A metodologia utilizada baseou-se na criação de uma ferramenta informática de simulação do funcionamento de um protótipo de um arrefecedor evaporativo. Foi efetuada a modelação matemática das variáveis dinâmicas envolvidas, dos processos de transferência de calor e de massa, assim como dos balanços de energia que ocorrem no arrefecedor evaporativo. A ferramenta informática desenvolvida permite o dimensionamento do protótipo do arrefecedor evaporativo, sendo determinadas as caraterísticas técnicas (potência térmica, caudal, eficiência energética, consumo energético e consumo e água) de acordo com o tipo de edifício e com as condições climatéricas do ar exterior. Foram selecionados três dimensionamentos de arrefecedores evaporativos, representativos de condições reais de uma gama baixa, média e elevada de caudais de ar. Os resultados obtidos nas simulações mostram que a potência de arrefecimento (5,6 kW, 16,0 kW e 32,8 kW) e o consumo de água (8 l/h, 23,9 l/h e 48,96 l/h) aumentam com o caudal de ar do arrefecedor, 5.000 m3/h, 15.000 m3/h e 30.000 m3/h, respetivamente. A eficácia de permuta destes arrefecedores evaporativos, foi de 69%, 66% e 67%, respetivamente. Verificou-se que a alteração de zona climática de V1 para V2 implicou um aumento de 39% na potência de arrefecimento e de 20% no consumo de água, e que, a alteração de zona climática de V2 para V3 implicou um aumento de 39% na potência de arrefecimento e de 39% no consumo de água. O arrefecedor evaporativo apresenta valores de consumo de energia elétrica entre 40% a 80% inferiores aos dos sistemas de arrefecimento convencionais, sendo este efeito mais intenso quando a zona climática de verão se torna mais severa.
Resumo:
A presente dissertação tem dois objetivos, o primeiro é a realização de uma auditoria energética e avaliação da qualidade do ar às instalações de uma Piscina Municipal, permitindo a sua classificação energética, e o segundo é o estudo de propostas de melhoria que contribuam para uma melhor eficiência energética do edifício. Na análise à qualidade do ar interior os parâmetros avaliados encontravam-se todos dentro dos limites estabelecidos por lei, com exceção dos valores de COVs que em dois pontos de medição (ambos na nave) ultrapassaram os limites estabelecidos por lei. A auditoria ao edifício permitiu verificar que o caudal mínimo de água nova nas piscinas imposto por lei é cumprido pela instalação. No que diz respeito ao caudal de ar novo introduzido, este apenas é respeitado quando a unidade de tratamento de ar está a debitar 100% da sua capacidade. Quando a unidade opera a 50% da sua capacidade apresenta um défice de 5% do valor mínimo estabelecido. Relativamente às perdas energéticas associadas aos tanques de natação, estas apresentam um valor de 95,89 kW, em que 59,09 kW dizem respeito às perdas por evaporação. Foi também possível concluir que as perdas por evaporação representam cerca de 39% da energia calorifica produzida nas caldeiras. O edifício apresenta um consumo anual de eletricidade de 166 482 kWh em que 69% deste valor é provocado pelas unidades de tratamento de ar e a iluminação apresenta apenas um peso de 3%. Em relação ao gás natural consumido pelas caldeiras o seu valor anual é de 1 317 240 kWh. A simulação dinâmica do edifício permitiu concluir que este apresenta um IEE de 1 269,9 kWh/m2.ano. O rácio de classe energética (RIEE) é de 1,24 o que significa que o edifício pertence à classe energética C. As medidas estudadas para a melhoria da eficiência energética, nomeadamente integração energética com uma central de ciclo combinado, aplicação de cobertura isotérmica nas piscinas e substituição do telhado na zona da nave, mostraram-se viáveis. O estudo da possibilidade da realização de uma integração energética permitiu concluir que a poupança anual é de 9 374 € e o investimento é recuperado em menos de 1,5 anos. Relativamente à aplicação de cobertura isotérmica o investimento é de 14 000 € e é recuperado em 2 anos. A substituição do telhado na zona da nave tem um investimento de 20 500 € e a recuperação realiza-se num período de 3,5 anos.
Resumo:
A presente dissertação realizada na empresa Continental-Indústria Têxtil do Ave, S.A., teve como objetivo a otimização energética da secção das malhas. Esta secção divide-se em duas áreas, a tricotagem e a ramulagem. Os artigos produzidos diferem no seu peso específico, composição e condições de operação, sendo os artigos A, B e C compostos por poliéster e termofixados a 190ºC e os artigos D e E compostos por poliéster e algodão, com uma temperatura de operação de 205ºC. Numa primeira etapa estudou-se o funcionamento da máquina de termofixação – a râmula – que opera em trabalho contínuo a 40 m/min. Esta máquina tem incorporado um permutador de calor, que aquece o ar fresco de entrada com os gases de exaustão das estufas. Posteriormente efetuou-se o levantamento energético de cada artigo, para as áreas de tricotagem e ramulagem. Verificou-se que os artigos D e E, pela sua constituição, são os que apresentam um consumo específico superior, em tep/ton. Entre as várias utilidades consumidas (gás natural, eletricidade e ar comprimido) o gás natural representa mais de 50% do consumo de energia total necessário para a produção de cada artigo. Após a completa análise aos consumos energéticos da râmula, foram realizados ensaios de otimização, tendo-se concluído que a diminuição do caudal de exaustão pode atingir valores de poupança anual de gás natural na ordem dos 3.000 €. Com o objetivo de avaliar o consumo de gás natural, não sendo possível a realização experimental, foram feitas simulações com base em alterações na corrente de entrada de ar fresco no permutador. Foi também estudada a possibilidade de isolamento e revestimento térmico da conduta exterior, projetada para o reaproveitamento do ar dos compressores, tendo-se obtido um orçamento de 2.500 €. Admitindo-se uma gama de temperaturas entre os 40ºC e os 60ºC, com um caudal de insuflação de 30%, obteve-se um payback entre os 0,97 e os 3,28 anos. Numa segunda fase admitiu-se uma temperatura média de 50ºC, aumentando o caudal de insuflação até 100%. O período de retorno obtido variou entre os 0,33 e os 1,38 anos, podendo as poupanças anuais atingirem os 7.600 €.
A biochemical predictor of performance during mesophilic anaerobic fermentation of starch wastewater
Resumo:
The aim of this study was to determine the potential of biochemical parameters, such as enzyme activity and adenosine triphosphate (ATP) levels, as monitors of process performance in the Upflow Anaerobic Sludge Blanket (UASB) reactor utilizing a starch wastewater. The acid and alkaline phosphatase activity and the ATP content of the UASB sludge were measured in response to changes in flow rate and nutrient loading. Conventional parameters of process performance, such as gas production, acetic acid production, COD, phosphorus, nitrogen and suspended solids loadings and % COD removal were also monitored. The response of both biochemical and conventional parameters to changing process conditions was then compared. Alkaline phosphatase activity exhibited the highest activity over the entire study perioda A high suspended solids loading was observed to upset the system in terms of gas production, acetic acid production and % COD removala The initial rate of increase in alkaline phosphatase activity following an increase in loading was four times as great during process upset than under conditions of good performance. The change in enzyme actiVity was also more sensitive to process upset than changes in acetic acid production. The change in ATP content of the sludge with time suggested that enzyme actiVity was changing independently of the actual viable biomass present. The bacterial composition of the anaerobic sludge granules was similar to that of other sludge bed systems, at the light and scanning electron microscope level. Isolated serum bottle cultures produced several acids involved in anaerobic carbohydrate metabolism. The overall performance of the UASB system indicated that higher loadings of soluble nutrients could have been tolerated by the system.
Resumo:
To investigate the thennal effects of latent heat in hydrothennal settings, an extension was made to the existing finite-element numerical modelling software, Aquarius. The latent heat algorithm was validated using a series of column models, which analysed the effects of penneability (flow rate), thennal gradient, and position along the two-phase curve (pressure). Increasing the flow rate and pressure increases displacement of the liquid-steam boundary from an initial position detennined without accounting for latent heat while increasing the thennal gradient decreases that displacement. Application to a regional scale model of a caldera-hosted hydrothennal system based on a representative suite of calderas (e.g., Yellowstone, Creede, Valles Grande) led to oscillations in the model solution. Oscillations can be reduced or eliminated by mesh refinement, which requires greater computation effort. Results indicate that latent heat should be accounted for to accurately model phase change conditions in hydrothennal settings.
Resumo:
Part I: Ultra-trace determination of vanadium in lake sediments: a performance comparison using O2, N20, and NH3 as reaction gases in ICP-DRC-MS Thermal ion-molecule reactions, targeting removal of specific spectroscopic interference problems, have become a powerful tool for method development in quadrupole based inductively coupled plasma mass spectrometry (ICP-MS) applications. A study was conducted to develop an accurate method for the determination of vanadium in lake sediment samples by ICP-MS, coupled with a dynamic reaction cell (DRC), using two differenvchemical resolution strategies: a) direct removal of interfering C10+ and b) vanadium oxidation to VO+. The performance of three reaction gases that are suitable for handling vanadium interference in the dynamic reaction cell was systematically studied and evaluated: ammonia for C10+ removal and oxygen and nitrous oxide for oxidation. Although it was able to produce comparable results for vanadium to those using oxygen and nitrous oxide, NH3 did not completely eliminate a matrix effect, caused by the presence of chloride, and required large scale dilutions (and a concomitant increase in variance) when the sample and/or the digestion medium contained large amounts of chloride. Among the three candidate reaction gases at their optimized Eonditions, creation of VO+ with oxygen gas delivered the best analyte sensitivity and the lowest detection limit (2.7 ng L-1). Vanadium results obtained from fourteen lake sediment samples and a certified reference material (CRM031-040-1), using two different analytelinterference separation strategies, suggested that the vanadium mono-oxidation offers advantageous performance over the conventional method using NH3 for ultra-trace vanadium determination by ICP-DRC-MS and can be readily employed in relevant environmental chemistry applications that deal with ultra-trace contaminants.Part II: Validation of a modified oxidation approach for the quantification of total arsenic and selenium in complex environmental matrices Spectroscopic interference problems of arsenic and selenium in ICP-MS practices were investigated in detail. Preliminary literature review suggested that oxygen could serve as an effective candidate reaction gas for analysis of the two elements in dynamic reaction cell coupled ICP-MS. An accurate method was developed for the determination of As and Se in complex environmental samples, based on a series of modifications on an oxidation approach for As and Se previously reported. Rhodium was used as internal standard in this study to help minimize non-spectral interferences such as instrumental drift. Using an oxygen gas flow slightly higher than 0.5 mL min-I, arsenic is converted to 75 AS160+ ion in an efficient manner whereas a potentially interfering ion, 91Zr+, is completely removed. Instead of using the most abundant Se isotope, 80Se, selenium was determined by a second most abundant isotope, 78Se, in the form of 78Se160. Upon careful selection of oxygen gas flow rate and optimization ofRPq value, previous isobaric threats caused by Zr and Mo were reduced to background levels whereas another potential atomic isobar, 96Ru+, became completely harmless to the new selenium analyte. The new method underwent a strict validation procedure where the recovery of a suitable certified reference material was examined and the obtained sample data were compared with those produced by a credible external laboratory who analyzed the same set of samples using a standardized HG-ICP-AES method. The validation results were satisfactory. The resultant limits of detection for arsenic and selenium were 5 ng L-1 and 60 ng L-1, respectively.
Resumo:
Affiliation: Département de Biochimie, Faculté de médecine, Université de Montréal
Resumo:
Introduction : Les modèles murins sont grandement utilisés dans l’étude des maladies rénales et des pathologies associées. La concentration de la créatinine sérique est un bon indicateur de la filtration glomérulaire et en présence d’insuffisance rénale chronique (IRC), les concentrations de créatinine sérique (et la clairance) reflètent la sévérité de l’IRC. De plus, il a été démontré que l’IRC modifie le métabolisme des médicaments en diminuant l’activité et l’expression des enzymes hépatiques du cytochrome P450 (CYP450). Afin d’étudier la modulation du P450 par l’IRC avec un modèle murin et de confirmer nos résultats chez le rat, nous devons 1) développer un modèle d’IRC chez la souris, 2) mettre au point une technique de dosage des marqueurs de l’IRC et, 3) évaluer l’expression protéique du CYP450 en présence IRC. Matériel et Méthode : Trois modèles chirurgicaux d’IRC chez la souris ont été développés. Une méthode du dosage de la créatinine par chromatographie liquide à haute performance (CLHP) a été mise au point chez la souris et l’expression protéique du P450 a été mesurée par immunobuvardage de type Western. Résultats : Plusieurs paramètres de CLHP comme le pH, la concentration et le débit de la phase mobile modifient le pic d’élution et le temps de rétention de la créatinine. Concernant le modèle expérimental, on observe une perte de poids et une augmentation de la concentration plasmatique de la créatinine chez les souris avec une IRC. De plus, l’expression protéique de plusieurs isoformes du cytochrome P450 est modulée par l’IRC. Nous observons une diminution du CYP 2D de 42% (p < 0,01), du CYP 3A11 de 60% et du CYP 1A de 37% (p <0,01) par rapport aux souris témoins. On ne dénote aucun changement significatif au niveau de l’isoforme 2E1. Conclusion : Il est possible d’induire une insuffisance rénale chronique chez la souris suite à une néphrectomie. La technique de dosage de la créatinine par CLHP est précise et exacte et permet de caractériser la sévérité de l’IRC chez la souris. L’expression protéique du CYP450 est régulée à la baisse dans le foie des souris atteintes d’IRC.
Resumo:
Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Un modèle de croissance et de réponse à la radiothérapie pour le glioblastome multiforme (GBM) basé le formalisme du modèle de prolifération-invasion (PI) et du modèle linéaire-quadratique a été développé et implémenté. La géométrie spécifique au patient est considérée en modélisant, d'une part, les voies d'invasion possibles des GBM avec l'imagerie du tenseur de diffusion (DTI) et, d'autre part, les barrières à la propagation à partir des images anatomiques disponibles. La distribution de dose réelle reçue par un patient donné est appliquée telle quelle dans les simulations, en respectant l'horaire de traitement. Les paramètres libres du modèle (taux de prolifération, coefficient de diffusion, paramètres radiobiologiques) sont choisis aléatoirement à partir de distributions de valeurs plausibles. Un total de 400 ensembles de valeurs pour les paramètres libres sont ainsi choisis pour tous les patients, et une simulation de la croissance et de la réponse au traitement est effectuée pour chaque patient et chaque ensemble de paramètres. Un critère de récidive est appliqué sur les résultats de chaque simulation pour identifier un lieu probable de récidive (SPR). La superposition de tous les SPR obtenus pour un patient donné permet de définir la probabilité d'occurrence (OP). Il est démontré qu'il existe des valeurs de OP élevées pour tous les patients, impliquant que les résultats du modèle PI ne sont pas très sensibles aux valeurs des paramètres utilisés. Il est également démontré comment le formalisme développé dans cet ouvrage pourrait permettre de définir un volume cible personnalisé pour les traitements de radiothérapie du GBM.
Resumo:
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.