113 resultados para Neutrons - Transporte - Métodos de simulação
Resumo:
O objetivo deste trabalho é tratar da simulação do fenômeno de propagação de ondas em uma haste heterogênea elástico, composta por dois materiais distintos (um linear e um não-linear), cada um deles com a sua própria velocidade de propagação da onda. Na interface entre estes materiais existe uma descontinuidade, um choque estacionário, devido ao salto das propriedades físicas. Empregando uma abordagem na configuração de referência, um sistema não-linear hiperbólico de equações diferenciais parciais, cujas incógnitas são a velocidade e a deformação, descrevendo a resposta dinâmica da haste heterogénea. A solução analítica completa do problema de Riemann associado são apresentados e discutidos.
Utilização de métodos de comparação de sequências para a detecção de genes taxonomicamente restritos
Resumo:
Desde a década de 1990, os esforços internacionais para a obtenção de genomas completos levaram à determinação do genoma de inúmeros organismos. Isto, aliado ao grande avanço da computação, tem permitido o uso de abordagens inovadoras no estudo da estrutura, organização e evolução dos genomas e na predição e classificação funcional de genes. Entre os métodos mais comumente empregados nestas análises está a busca por similaridades entre sequências biológicas. Análises comparativas entre genomas completamente sequenciados indicam que cada grupo taxonômico estudado até o momento contém de 10 a 20% de genes sem homólogos reconhecíveis em outras espécies. Acredita-se que estes genes taxonomicamente restritos (TRGs) tenham um papel importante na adaptação a nichos ecológicos particulares, podendo estar envolvidos em importantes processos evolutivos. Entretanto, seu reconhecimento não é simples, sendo necessário distingui-los de ORFs não-funcionais espúrias e/ou artefatos derivados dos processos de anotação gênica. Além disso, genes espécie- ou gêneroespecíficos podem representar uma oportunidade para o desenvolvimento de métodos de identificação e/ou tipagem, tarefa relativamente complicada no caso dos procariotos, onde o método padrão-ouro na atualidade envolve a análise de um grupo de vários genes (MultiLocus Sequence Typing MLST). Neste trabalho utilizamos dados produzidos através de análises comparativas de genomas e de sequências para identificar e caracterizar genes espécie- e gênero-específicos, os quais possam auxiliar no desenvolvimento de novos métodos para identificação e/ou tipagem, além de poderem lançar luz em importantes processos evolutivos (tais como a perda e ou origem de genes em linhagens particulares, bem como a expansão de famílias de genes em linhagens específicas) nos organismos estudados.
Resumo:
Os diamantes são minerais raros e de alto valor econômico. Estes minerais se formam em condições mantélicas, numa profundidade aproximada de 150 a 200 km e ascendem à superfície englobada em magmas alcalinos e carbonatíticos, nos kimberlitos e lamproitos (depósitos primários). No presente trabalho objetivou-se o estudo da geometria do Kimberlito Régis, o qual pertence à província alcalina do Brasil Meridional, localizado no estado de Minas Gerais, na cidade de Carmo do Paranaíba. Para este estudo foi realizada uma inversão gravimétrica 3D e uma modelagem utilizando dados de gravimetria e os resultados dos estudos de magnetometria (Menezes e La Terra, 2011) e CSAMT (La Terra e Menezes, 2012). As anomalias Bouguer e magnética foram então modeladas a partir de um resultado CSAMT, apresentando como resultado um conduto vulcânico com cerca de 2800 metros de profundidade e 200 metros de largura. Já o resultado da inversão mapeou um corpo com forma de cone invertido, apresentando contrastes de densidade negativos. A metodologia de integração de métodos geofísicos mostrou-se eficiente para estudos exploratórios de kimberlitos, apresentando rapidez e baixo custo quando comparados com os métodos tradicionais.
Resumo:
Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos
Resumo:
efeitos são frequentemente observados na morbidade e mortalidade por doenças respiratórias e cardiovasculares, câncer de pulmão, diminuição da função respiratória, absenteísmo escolar e problemas relacionados com a gravidez. Estudos também sugerem que os grupos mais suscetíveis são as crianças e os idosos. Esta tese apresenta estudos sobre o efeito da poluição do ar na saúde na saúde na cidade do Rio de Janeiro e aborda aspectos metodológicos sobre a análise de dados e imputação de dados faltantes em séries temporais epidemiológicas. A análise de séries temporais foi usada para estimar o efeito da poluição do ar na mortalidade de pessoas idosas por câncer de pulmão com dados dos anos 2000 e 2001. Este estudo teve como objetivo avaliar se a poluição do ar está associada com antecipação de óbitos de pessoas que já fazem parte de uma população de risco. Outro estudo foi realizado para avaliar o efeito da poluição do ar no baixo peso ao nascer de nascimentos a termo. O desenho deste estudo foi o de corte transversal usando os dados disponíveis no ano de 2002. Em ambos os estudos foram estimados efeitos moderados da poluição do ar. Aspectos metodológicos dos estudos epidemiológicos da poluição do ar na saúde também são abordados na tese. Um método para imputação de dados faltantes é proposto e implementado numa biblioteca para o aplicativo R. A metodologia de imputação é avaliada e comparada com outros métodos frequentemente usados para imputação de séries temporais de concentrações de poluentes atmosféricos por meio de técnicas de simulação. O método proposto apresentou desempenho superior aos tradicionalmente utilizados. Também é realizada uma breve revisão da metodologia usada nos estudos de séries temporais sobre os efeitos da poluição do ar na saúde. Os tópicos abordados na revisão estão implementados numa biblioteca para a análise de dados de séries temporais epidemiológicas no aplicativo estatístico R. O uso da biblioteca é exemplificado com dados de internações hospitalares de crianças por doenças respiratórias no Rio de Janeiro. Os estudos de cunho metodológico foram desenvolvidos no âmbito do estudo multicêntrico para avaliação dos efeitos da poluição do ar na América Latina o Projeto ESCALA.
Resumo:
Neste trabalho aplicamos métodos espectrais para a determinação da configuração inicial de três espaços-tempos contendo buracos negros. Para isto apresentamos primeiro a foliação do espaço-tempo em hipersuperfícies tridimensionais espaciais parametrizadas pela função temporal t. Este processo é chamado de decomposição 3+1 [2] [5]. O resultado deste processo são dois conjuntos de equações classificadas em equações de vínculo e evolução [4]. As equações de vínculo podem ser divididas em vínculos Hamiltoniano e dos momentos. Para a obtenção dos dados iniciais dos problemas estudados aqui, apenas a equação de vínculo Hamiltoniano será resolvida numericamente, pois as equações de vínculo dos momentos possuem solução analítica nestes casos. Uma pequena descrição dos métodos espectrais é apresentada, destacando-se os método de Galerkin, método pseudoespectral ou de colocação e método de Tau, que são empregados na resolução das equações de vínculo Hamiltoniano dos problemas estudados. Verificamos que os resultados obtidos neste trabalho superam aqueles produzidos por Kidder e Finn [15], devido a uma escolha diferente das funções de base, que aqui satisfazem uma das condições de contorno.
Resumo:
O perfeito entendimento de deslizamentos de terra tem sido objeto de grande interesse na engenharia geotécnica há muitos anos. Encostas naturais representam um desafio constante para os engenheiros, mais do que os taludes artificiais. Não é incomum que os escorregamentos causam perdas de vidas humanas e também danos materiais. As informações obtidas a partir de retro-análise de casos históricos, têm servido como uma ferramenta valiosa para a compreensão da estabilidade de taludes. Vale a pena notar que o primeiro método de cálculo de estabilidade de taludes, usando divisão de fatia, foi desenvolvido após um acidente na Noruega. Métodos de estabilidade por Equilíbrio Limite, desenvolvidos no século passado são atualmente utilizados na prática da engenharia. Apesar de suas deficiências, eles provaram ser confiáveis na determinação do Fator de Segurança. A geometria 2D e a abordagem completa da condição saturada são provavelmente as questões mais relevantes dos métodos atuais. A condição do solo não saturado está geralmente presente em taludes naturais e os métodos ignoram a influência da sucção do solo sobre a estabilidade do talude. O desenvolvimento de computadores no meio do século passado, tornaram os cálculos Equilíbrio Limite fáceis de serem executados. Por outro lado, eles não podem explicar a natureza do problema ou prever o comportamento do solo antes da ruptura. A década de 1960 marcou o início do desenvolvimento de programas de computador baseados em métodos numéricos que, entre outros, destaca-se, em geotecnia, a aplicação dos métodos de Elementos Finitos (FEM). Este método é ideal para muitos fins, uma vez que permite a simulação da sequência de construção e também a incorporação de diferentes modelos constitutivos. Este trabalho mostra a influência da sucção sobre a estabilidade de encostas naturais. Uma retroanálise de um escorregamento no Morro dos Cabritos, no Rio de Janeiro, foi feita através de um programa de análise de tensão (Plaxis 2D). Os resultados foram comparados com o FS obtido por programa de Equilíbrio Limite (Slide v5). O efeito de sucção do solo foi incorporada nas análises, através de sua influência sobre os parâmetros de resistência do solo e por diferentes possibilidades de infiltração de água na encosta. Este caso histórico foi estudado anteriormente por Gerscovich (1994), que na época, fez analise de fluxo e estabilidade utilizando um abordagem de Equilíbrio Limite 3D. Os resultados mostraram boa concordância entre a análise de Elementos Finitos e a simulação de Equilíbrio Limite, sem a presença de nível de água. Os resultados confirmaram que foi necessário haver pressões positivas para explicar a ruptura do talude.
Resumo:
A previsão do comportamento de resíduos constituiu-se em um desafio geotécnico, uma vez que estes materiais apresentam uma resposta distinta dos materiais usualmente encontrados em depósitos naturais. A análise dos recalques da fundação, decorrentes da sobrecarga imposta pelo alteamento, é complexa, tendo em vista que o adensamento de resíduos pressupõe grandes deformações, invalidando o uso de teorias clássicas de adensamento. Atualmente, no Brasil, a técnica de disposição de resíduos de bauxita prevê uma operação inicial de lançamento no interior de lagos artificiais, em forma de polpa. Após o esgotamento do lago e ressecamento do resíduo, inicia-se o lançamento pelo método a montante. Neste método, a polpa é lançada sobre o resíduo pré-existente, que se encontra em processo de adensamento. O presente trabalho tem como objetivo reproduzir numericamente o comportamento de áreas de resíduos durante a etapa de alteamento a montante. A pesquisa tem como enfoque 2 áreas de resíduos de bauxita. Uma delas encontra-se em fase de reabilitação e dispõe de instrumentação de campo (recalques e deslocamentos horizontais). A outra se encontra em fase de operação do alteamento e dispõe de dados experimentais. Desta forma, a metodologia consistiu na reprodução numérica do processo de alteamento da área instrumentada e comparação dos resultados com a instrumentação de campo, com objetivo de avaliar o modelo numérico e os parâmetros do resíduo. Posteriormente, realizou-se a previsão do comportamento do resíduo de fundação da área em fase de alteamento. Os parâmetros geotécnicos foram definidos a partir de um extenso programa de ensaios de campo e laboratório, executado no local em estudo, fazendo-se uso de um tratamento estatístico dos dados experimentais. Os resultados numéricos mostraram a potencialidade do programa na previsão do comportamento de áreas de resíduos durante o alteamento a montante, com previsões de recalques e deslocamentos horizontais coerentes com a instrumentação de campo.
Resumo:
Nesta dissertação, são apresentados os seguintes modelos matemáticos de transporte de nêutrons: a equação linearizada de Boltzmann e a equação da difusão de nêutrons monoenergéticos em meios não-multiplicativos. Com o objetivo de determinar o período fluxo escalar de nêutrons, é descrito um método espectronodal que gera soluções numéricas para o problema de difusão em geometria planar de fonte fixa, que são livres de erros de truncamento espacial, e que conjugado com uma técnica de reconstrução espacial intranodal gera o perfil detalhado da solução. A fim de obter o valor aproximado do fluxo angular de nêutrons em um determinado ponto do domínio e em uma determinada direção de migração, descreve-se também um método de reconstrução angular baseado na solução analítica da equação unidimensional de transporte de nêutrons monoenergéticos com espalhamento linearmente anisotrópico com aproximação sintética de difusão nos termos de fonte por espalhamento. O código computacional desenvolvido nesta dissertação foi implementado na plataforma livre Scilab, e para ilustrar a eficiência do código criado,resultados numéricos obtidos para três problemas-modelos são apresentados
Resumo:
As técnicas de injeção de traçadores têm sido amplamente utilizadas na investigação de escoamentos em meios porosos, principalmente em problemas envolvendo a simulação numérica de escoamentos miscíveis em reservatórios de petróleo e o transporte de contaminantes em aquíferos. Reservatórios subterrâneos são em geral heterogêneos e podem apresentar variações significativas das suas propriedades em várias escalas de comprimento. Estas variações espaciais são incorporadas às equações que governam o escoamento no interior do meio poroso por meio de campos aleatórios. Estes campos podem prover uma descrição das heterogeneidades da formação subterrânea nos casos onde o conhecimento geológico não fornece o detalhamento necessário para a predição determinística do escoamento através do meio poroso. Nesta tese é empregado um modelo lognormal para o campo de permeabilidades a fim de reproduzir-se a distribuição de permeabilidades do meio real, e a geração numérica destes campos aleatórios é feita pelo método da Soma Sucessiva de Campos Gaussianos Independentes (SSCGI). O objetivo principal deste trabalho é o estudo da quantificação de incertezas para o problema inverso do transporte de um traçador em um meio poroso heterogêneo empregando uma abordagem Bayesiana para a atualização dos campos de permeabilidades, baseada na medição dos valores da concentração espacial do traçador em tempos específicos. Um método do tipo Markov Chain Monte Carlo a dois estágios é utilizado na amostragem da distribuição de probabilidade a posteriori e a cadeia de Markov é construída a partir da reconstrução aleatória dos campos de permeabilidades. Na resolução do problema de pressão-velocidade que governa o escoamento empregase um método do tipo Elementos Finitos Mistos adequado para o cálculo acurado dos fluxos em campos de permeabilidades heterogêneos e uma abordagem Lagrangiana, o método Forward Integral Tracking (FIT), é utilizada na simulação numérica do problema do transporte do traçador. Resultados numéricos são obtidos e apresentados para um conjunto de realizações amostrais dos campos de permeabilidades.
Resumo:
Cirurgias ortognáticas bimaxilares representam um desafio para os cirurgiões, especialmente para reproduzir o plano de tratamento na sala operatória. O uso de guias cirúrgicos permite uma melhor reprodução do planejamento, mas, para isto, uma técnica precisa de cirurgia de modelos é essencial. O objetivo deste estudo é comparar a precisão do reposicionamento mandibular obtido com dois diferentes métodos de cirurgia de modelos utilizados para o planejamento de cirurgias bimaxilares com a seqüência cirúrgica invertida. Neste estudo, um crânio de resina foi utilizado para simular um paciente. As moldagens foram tomadas e os modelos foram vazados e montados em um articulador semi-ajustável por meio da transferência do arco-facial e do registro de mordida em cera. Traçados de previsão de 10 planos de tratamento diferentes foram feitos no software Dolphin Imaging e, então, reproduzidos com o método padrão (CM I) e método modificado (CM II) de cirurgia de modelos (T1). Para aprimorar a avaliação do reposicionamento mandibular, as cirurgias de modelo foram repetidas após um mês (T2). Os modelos mandibulares foram medidos na Plataforma de Erickson antes e depois do reposicionamento para contrastar os resultados. As diferenças no tempo de reposicionamento também foram registradas. Estatística descritiva e teste t foram usados para análisar os dados e comparar os resultados. Este estudo sugere que o reposicionamento vertical e látero-lateral dos modelos mandibulares foram semelhantes com ambos os métodos, entretanto, houve uma maior imprecisão no sentido ântero-posterior quando o método padrão de cirurgia modelos foi utilizado para o planejamento de cirurgias ortognáticas com a seqüência invertida. O tempo necessário para reposicionar o modelo mandibular no articulador semi-ajustável com a abordagem modificada (CM II) foi significativamente menor do que para reposicionar o modelo maxilar na Plataforma de Erickson (CM I).
Resumo:
A importância do transporte aquaviário é dada pelos diferentes modos de navegação, podendo ser por meio fluvial, lacustre e navegação marítima. Para a logística e economia brasileira, este é um modal extremamente importante, haja vista a pluralidade de transporte pelo fato das relações de exportação e importação ocorrerem especialmente por este tipo de modal. No Brasil há cinco modalidades de transportes: o aquaviário, o rodoviário, o aeroviário, o ferroviário e o dutoviário. Serão descritas nos próximos capítulos as características de cada tipo de modal, especificamente dos modais rodoviário e aquaviário, em especial a cabotagem, objeto principal deste estudo. O objetivo deste trabalho é analisar a atual situação do transporte marítimo no Brasil, especialmente a cabotagem. Através de três parâmetros - custos, tempo de viagem e segurança -, procurar-se-á avaliar o nível de qualidade do modal, visando à identificação da existência de pontos críticos e sugerir possíveis soluções baseadas na logística e na tecnologia, ferramentas fundamentais para a busca da eficácia na redução dos custos de transportes, contribuindo para um melhor resultado dos custos logísticos finais. Para uma reflexão sobre o transporte nacional de mercadorias por via marítima através da cabotagem, serão apresentadas as características principais do transporte marítimo, com suas vantagens e desvantagens e sua importância para a economia brasileira. A crítica envolverá a questão do frete marítimo e suas interrelações, discutindo variáveis que compõem o preço do frete. Ferramentas tecnológicas fundamentais para a eficácia das operações também serão abordadas durante este trabalho. Serão descritas as características dos portos brasileiros, em especial as dos portos do Rio Grande (RS), Santos (SP), Suape (PE) e Rio de Janeiro (RJ), a distancia entre o porto do Rio de Janeiro (RJ) e os demais, bem como o tempo de viagem relacionado entre eles. Explorado pela União diretamente ou mediante concessão (precedida de licitação), o porto organizado, construído e aparelhado para atender necessidades da navegação e da movimentação é administrado pelo Conselho de Autoridade Portuária - CAP -, contando ainda com a figura do OGMO Orgão Gestor de Mão de Obra que controla a força de trabalho nas áreas portuárias, organismos instituídos pela Lei n. 8.630, de 25 de fevereiro de 1993, chamada da Lei de Modernização dos Portos. Por fim serão analisadas as variáveis custo, tempo de viagem e segurança no intuito de contribuir para uma reflexão para o crescimento do transporte de cabotagem no Brasil, procurando identificar um ganho substancial na economia brasileira, através da economia de escala, observados todos os parâmetros necessários para o bom desenvolvimento da logística de transporte de mercadorias por via marítima. Este trabalho abordará a Gestão do Transporte Marítimo de Cargas no Brasil, em especial a cabotagem.
Resumo:
O presente trabalho visa a investigar historicamente o uso de droga enquanto objeto de intervenção da Medicina e da Psiquiatria, a partir do início do século XX até os dias atuais, refletindo sobre a articulação e a cooperação entre essas duas instituições, inserindo o problema no panorama geral da questão no Brasil e no mundo. Para atingir esse objetivo, farse-á a análise de documentos produzidos ao longo do período referido nos dois âmbitos: documentos legais e as principais referências da bibliografia psiquiátrica. Assim, o principal foco do estudo é encontrar as convergências e divergências dos processos de medicalização e criminalização do uso de droga, dando especial atenção para o arranjo atual dessa problemática. Após a análise documental, far-se-á um contraponto das informações colhidas na pesquisa com alguns trabalhos genealógicos de Michel Foucault, pensando como este teórico pode ajudar a compreender o surgimento, a evolução e a configuração atual da questão da droga no Brasil.
Resumo:
Num regime balísstico e a baixas temperaturas, a fórmula de Landauer dá uma boa descrição do transporte de calor para nano-junções conectadas a dois fios acoplados a banhos térmicos a temperaturas diferentes. Partindo de um modelo microscópico e utilizando o método de funções de Green fora do equilíbrio, é possível obter uma expressão para a condutância térmica na nano-junção equivalente a fórmula de Landauer. Esta depende dos valores das constantes de acoplamento entre os modos de fônons da região central e dos fios, além do gradiente térmico. A expressão para a condutância térmica é muito semelhante aquela obtida para a condutância elétrica. Neste trabalho nós apresentamos o método para o cálculo de grandezas relacionadas ao transporte térmico em um regime onde não há um gradiente de temperatura entre os reservatórios mas o sistema sofre uma perturbação dependente do tempo. Ou seja, com uma escolha conveniente da parametrização temporal dos termos de acoplamento entre a nano-junção e os fios é possível produzir uma corrente de calor na ausência de diferença de temperaturas entre os banhos térmicos aos quais os fios estão conectados. Esse fenômeno caracteriza o bombeamento de calor. Desenvolvemos uma teoria de transporte dependente do tempo para descrever o bombeamento. A teoria é geral, dependendo da densidade de fônons, da intensidade e dependência temporal do acoplamento. Aplicamos o formalismo em um modelo simples demonstrando que, em princípio, é possível bombear calor através de uma cadeia linear de átomos sem gradiente térmico.
Resumo:
O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.