902 resultados para simulação
Resumo:
As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.
Resumo:
O objetivo deste trabalho é a aplicação de um Planejamento Fatorial Completo, ferramenta estatística que auxiliará a obter dados empíricos para otimizar um tratamento termoquímico, a cementação. Partindo-se de um levantamento da profundidade de camada cementada e da dureza de uma corrente de aço de baixo teor de carbono, usada para amarração, e para resistir à abrasão reproduziu-se uma nova cementação, variando-se seus parâmetros de influência, para se alcançar o ponto ótimo, definindo o melhor aço e o melhor processo. Foram realizados dois planejamentos, um fatorial 2 e dois 2, comparando o comportamento do processo na prática em relação aos resultados teóricos de uma simulação computacional, que permite a obtenção das curvas de enriquecimento de carbono, baseado na segunda Lei de Fick, para várias condições de contorno. Os perfis teóricos de cementação apresentaram valores de profundidade efetiva próximos aos valores obtidos experimentalmente, evidenciando o planejamento realizado.
Resumo:
O zoneamento agroecológico (ZAE) pode ser um instrumento efetivo de ordenamento territorial setorial rural. Suas diretrizes e suas orientações técnicas podem compor os fatores exploratórios de modelos de mudança de uso e cobertura da terra. No Brasil, via de regra, utiliza-se o zoneamento econômico-ecológico (ZEE) como um instrumento de ordenamento territorial e o ZAE é aplicado com o objetivo de fornecer subsídios para o planejamento do uso agrícola das terras, limitando-se, grosso modo, à indicação de sistemas agrícolas e agropecuários potenciais e sustentáveis adaptados ao clima e ao solo. Um ZAE que fomentou políticas de ordenamento territorial setorial rural foi o Zoneamento Agroecológico da Cana-de-açúcar (ZAE-Cana), de 2009, ordenando a expansão da área plantada com cana-de-açúcar para a indústria sucroalcooleira no território brasileiro. Esta tese discute as diferenças de método na elaboração de suas diretrizes e de suas orientações técnicas que permitiram considerar as dimensões social e política e verifica se esse ZAE extrapolou a aplicação de indicativo de áreas potenciais e passou a fomentar políticas públicas de ordenamento da expansão da área plantada com cana-de-açúcar para a indústria sucroalcooleira no território brasileiro. O estudo permitiu concluir que o ZAE-Cana é utilizado como um instrumento efetivo de ordenamento territorial para setor rural por ter incluído as dimensões social e política nas etapas de definição das diretrizes, na validação das análises e na elaboração das orientações técnicas, ou seja, em todas as fases do zoneamento. Em um segundo momento elaborou-se um estudo da aplicação das diretrizes e das orientações técnicas do ZAE como parâmetros para a modelagem de uso e cobertura da terra. Observou-se a correlação das variáveis advindas do ZAE-Cana com os usos e coberturas da terra de 2003 e de 2009 para os estados de Goiás e de São Paulo e aplicou-se o modelo Conversion of Land Use and its Effects at Small regional extent (CLUE-S) no estado de Goiás de 2003 a 2009 (validação) e de 2009 a 2025 (simulação) para verificar o uso dessas variáveis no processo de modelagem, o que permitiu concluir que é viável a aplicação das diretrizes, das orientações técnicas e de outras informações conseguidas durante a elaboração dos zoneamentos agroecológicos em modelos de mudança de uso e cobertura da terra.
Resumo:
Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.
Resumo:
O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.
Resumo:
A modelagem matemática e computacional é uma ferramenta que tem sido bastante utilizada no campo da Biologia e das Ciências Biomédicas. Nos dias de hoje, uma quantidade significativa de dados experimentais nessa área pode ser encontrada na literatura, tornando possível o desenvolvimento de modelos que combinem a experimentação e hipóteses teóricas. O objetivo do presente projeto é implementar um modelo matemático de transmissão sináptica conectando neurônios em um circuito de descargas repetitivas ou reverberativo, a fim de investigar o seu comportamento diante de variações paramétricas. Através de simulações computacionais, utilizando um programa desenvolvido em linguagem C++, pretende-se utilizá-lo para simular um circuito de memória imediata. Afora o considerável avanço da Neurofisiologia e Neurociência computacional no sentido do entendimento das características fisiológicas e comportamentais das habilidades do Sistema Nervoso Central, muitos mecanismos neuronais ainda permanecem completamente obscuros. Ainda não se conhece definitivamente o mecanismo pelo qual o cérebro adquire, armazena e evoca as informações. Porém, o postulado de Hebb referente às redes reverberantes, onde a idéia de que redes de reverberação facilitariam a associação de dados coincidentes entre informações sensoriais, temporalmente divergentes, tem sido aceito para explicar a formação de memória imediata (Johnson et al., 2009). Assim, com base no postulado de Hebb, os resultados observados no modelo neuromatemático-computacional adotado possuem características de um circuito de memória imediata.
Resumo:
A presente dissertação propõe uma abordagem alternativa na simulação matemática de um cenário preocupante em ecologia: o controle de pragas nocivas a uma dada lavoura de soja em uma específica região geográfica. O instrumental teórico empregado é a teoria dos jogos, de forma a acoplar ferramentas da matemática discreta à análise e solução de problemas de valor inicial em equações diferenciais, mais especificamente, as chamadas equações de dinâmica populacional de Lotka-Volterra com competição. Essas equações, que modelam o comportamento predador-presa, possuem, com os parâmetros inicialmente utilizados, um ponto de equilíbrio mais alto que o desejado no contexto agrícola sob exame, resultando na necessidade de utilização da teoria do controle ótimo. O esquema desenvolvido neste trabalho conduz a ferramentas suficientemente simples, de forma a tornar viável o seu uso em situações reais. Os dados utilizados para o tratamento do problema que conduziu a esta pesquisa interdisciplinar foram coletados de material bibliográfico da Empresa Brasileira de Pesquisa Agropecuária EMBRAPA.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
A complexidade do fenômeno comunicacional desafia estudiosos do campo na atualidade, principalmente no âmbito dos ambientes sociais. O processo de interação mediada, por exemplo, ganhou grandes proporções na virada do século XXI com o advento das Tecnologias de Informação e de Comunicação (TIC). Os suportes tecnológicos eletrônicos ou computacionais passaram a nortear grande parte do entretenimento e da comunicação. Nesse caminho esta pesquisa analisa novas práticas de comunicação na atualidade e aponta como os jogos eletrônicos, ou também chamados games, vêm se conjugando nos processos de mediação nessas práticas. O trabalho envolve os jogos para computador, mais especificamente os chamados jogos casuais. O objeto de estudo são os tipos de interação social em jogos casuais online e o corpus de análise é o EcoCity, um jogo de simulação com final aberto que funciona nos sites de serviço de rede social. A abordagem da construção de cidades sustentáveis no game traz fatores ambientais à cena. A hipótese é que a socialização em torno desses fatores podem de alguma forma agregar valor nos usos e apropriações que os indivíduos fazem dos jogos casuais durante os processos comunicativos e interativos.
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Um método numérico espectronodal (END) livre de erros de truncamento espacial é desenvolvido para problemas unidimensionais de difusão de nêutrons monoenergéticos em duas versões. Na versão de problemas de autovalor, o método gera soluções numéricas para o perfil do fluxo escalar e para o fator de multiplicação efetivo (k), que coincidem com a solução analítica dominante, afora os erros da aritmética finita computacional. Na versão de fonte fxa, o método também gera soluções numéricas analíticas para o problema de fonte fixa correspondente, onde a fonte de fissão, com dependência espacial, é obtida analiticamente, a partir da reconstrução espacial do fluxo escalar gerado pelo método END para problemas de autovalor. Alguns experimentos numéricos são apresentados para dois problemas modelos a fim de ilustrar a precisão do método.
Resumo:
Na atualidade, tempos hipermodernos, a problemática do virtual está colocada em cena sob uma constituição exponencial. Nossas novas formas de ser, sentir e estar no mundo são cada vez mais influenciadas e mediadas por artefatos maquínicos em contínuos upgrades. Diante deste cenário, tal pesquisa busca destacar esta portentosa e nova interface do mundo contemporâneo onde subjetividade e tecnologia se imbricam de forma inédita e peculiar. Para tal, captura-se o saber fazer de um jogo que instaura um ambiente de simulação o qual oferece ao sujeito hipermoderno a possibilidade de viver uma segunda vida de acordo com os seus desejos analógicos e digitais. Como ferramenta metodológica decide-se por uma imersão vivencial no ambiente cibernético onde pesquisadora e sujeito se hibridizam em formas de duplos a partir de um ser analógico primordial, com novas demandas reais e virtuais. Desta imersão são obtidos os insumos básicos para as necessárias reflexões associados, naturalmente, ao pensamento de teóricos expoentes deste campo do saber humano. Um sintoma da hipermodernidade, tal qual uma tela de contato do limítrofe entre real e virtual, Second Life é, portanto, um dos caminhos escolhidos para o desvelamento de partes ínfimas desta nova faceta da aventura humana na História.
Resumo:
O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.
Resumo:
Recentemente, nosso grupo demonstrou que a matriz extracelular de astrocitomas promove a seleçãode células endoteliais altamente proliferativas, porém com reduzida capacidade tubulogênica, além de determinar a morte de uma segunda sub-população endotelial, por desaderência ou anoikis. Estratégias de simulação dos teores de tenascina-C (TN-C) e fibronectina (FN) nas matrizes de astrocitomas, realizados com ambas as proteínas purificadas na forma de substratos definidos, sugeriram que o balanço TN-C:FN estava relacionado com os fenótipos endoteliais observados. No entanto, este procedimento não permitia abordar a participação de outros componentes da matriz tumoral nativa neste processo. Com objetivo de estudar a modulação do fenótipo angiogênico das células endoteliais por matrizes de astrocitoma, realizamos o silenciamento da expressão de TN-C na linhagem de astrocitoma U-373 MG. O silenciamento foi confirmado por western blotting, PCR em tempo real e ELISA, que permitiram concluir que, no período pós-transfecção (120h) necessário para se obter matrizes tumorais nativas para ensaios funcionais com células endoteliais, as células U-373 MG mantiveram-se silenciadas em índices superiores a 90%. A diminuição de TN-C nas matrizes tumorais resultou em um pequeno (≅18%, em média), porém significativo aumento na taxa de adesão endotelial. HUVECs incubadas com a matriz secretadas por células silenciadas apresentaram uma redução de ≅35% do número de núcleos picnóticos, quando comparadas a HUVECs incubadas com a matriz de células U-373 MG (selvagens ou transfectadas com siRNA controle). O silenciamento da expressão da TN-C na matriz nas células U-373 MG restaurou ainda o defeito tubulogênico das células endoteliais, que passaram a apresentar formação de tubos comparável à obtida quando HUVECs foram incubadas com sua matriz autóloga, rica em FN. Tais resultados apoiam observações anteriores do grupo, que já sugeriam que a maior proporção de FN na matriz autóloga, comparada a matriz do astrocitoma, seria o fator principal para a seleção dos fenótipos angiogênicos observados, demonstrando mais uma vez a importância do balanço FN:TN-C na regulação de processos angiogênicos. Dados anteriores sugeriam ainda que a sub-população endotelial que morre por anoikisapós contato prolongado (24 horas) com matrizes de astrocitomas corresponde a células que já haviam entrado na fase S do ciclo celular, no início da incubação. A fim de nos aprofundarmos sobre a participação do ciclo celular neste processo, a expressão da proteína p27, um inibidor de quinases dependentes de ciclinas (CKI), também foi analisada. HUVECs incubadas com a matriz de astrocitoma apresentaram um aumento de 2 a 3 vezes na expressão de p27, quando comparada com HUVECs provenientes de sua matriz autóloga. No entanto, células endoteliais incubadas com matriz secretada por células U-373 MG silenciadas apresentaram um nível de expressão de p27 comparável ao das HUVECs incubadas com matriz secretada por células selvagens, indicando que a expressão de TN-C não modula, ou não está diretamente correlacionada à expressão da proteína p27. Este resultado sugere que outros componentes da matriz tumoral devam estar envolvidos na modulação do ciclo celular endotelial.
Resumo:
Com o passar do tempo, a população mundial vem se conscientizando mais sobre problemas ambientais. Isso fez surgir uma demanda por tecnologias novas que possam se encaixar no cenário de sustentabilidade. Instabilidades frequentes no cenário político-econômico global acabam por elevar o preço do barril do petróleo. Assim a indústria química começa a buscar por alternativas que tenham a mesma versatilidade do petróleo. Dentre as opções de combustíveis renováveis, destaca-se o bio-óleo de pirólise. Seu interesse em estudos científicos vem do fato de poder-se utilizar do rejeito de processos como matéria prima, não necessitando competir por espaço com a plantação de alimentos. Sua composição pode ser representada por ácidos e fenóis. Em especial destacamos o ácido acético e fenóis oxigenados como m-cresol, o-cresol, p-cresol e guaiacol por estarem presentes em grandes quantidades. Sua separação das frações menos polares do bio-óleo pode ser realizada por meio de extração com água que é um reagente abundante e de baixo custo. O conhecimento das propriedades desses componentes puros é amplamente disponível na literatura, porém dados de composições das fases corrosivas, como misturas ternárias de água-ácido acético-m-cresol/o-cresol/p-cresol/guaiacol nas temperaturas de (298,15, 310,65 e 323,15) K são escassos. Devido a isso, o uso de modelos termodinâmicos para simulação do comportamento desses sistemas torna-se interessante. Todavia, quando são testadas as capacidades dos modelos clássicos, como o UNIFAC e NRTL, percebe-se que os mesmos não conseguem reproduzir o comportamento da binodal dos componentes corrosivos. Sendo assim, essa dissertação investigou soluções para melhorar a descrição desses sistemas, assim como obteve dados experimentais para tais sistemas de misturas ternárias de água-ácido acético-m-cresol/o-cresol/p-cresol/guaiacol nas temperaturas de (298,15, 310,65 e 323,15) K; desenvolveu-se uma metodologia para estimar parâmetros do modelo NRTL a partir de dados de composição da binodal e verificou-se a possibilidade de utilizar o modelo UNIFAC para prever o comportamento de equilíbrio de fases. Como resultado foram obtidos 314 novos dados experimentais, obtiveram-se parâmetros para o modelo NRTL que conseguem reproduzir com acurácia a forma da binodal com a metodologia proposta e verificou-se a necessidade de aperfeiçoamento no estudo do modelo UNIFAC para otimizar sua utilização na previsão do comportamento dos sistemas estudados