29 resultados para Análise não linear de estruturas
em Biblioteca de Teses e Dissertações da USP
Resumo:
O método construtivo com painéis portantes de concreto é economicamente viável, porém relativamente novo no cenário nacional, sobretudo no caso dos pré-moldados. As incertezas referentes às peculiaridades desse método, bem como a nova norma brasileira de painéis pré-moldados, ainda em elaboração, vem a motivar uma análise probabilística dos critérios de projeto disponíveis. Utilizando-se a técnica da confiabilidade estrutural, é possível propagar as incertezas referentes às variáveis a uma resposta final no índice de confiabilidade, sendo um cálculo totalmente probabilístico. Neste trabalho, emprega-se tal técnica com informações estatísticas referentes a lajes de concreto moldadas in loco para verificar, de maneira mais verossímil, a segurança dos critérios de projeto impostos pelo Precast Concrete Institute Design Handbook - Precast and Prestressed Concrete - 7th Edition (2010) às fases transitórias (desforma, transporte e içamento) e pela Norma Brasileira ABNT NBR 6118: 2014 - Projeto de estruturas de concreto, à fase em uso. Prossegue-se a uma análise crítica dos resultados bem como sugestões para diminuir a variação dos resultados, sobretudo pela calibração de novos coeficientes parciais de segurança, processo para o qual este trabalho pode servir de base.
Resumo:
O método dos elementos finitos é o método numérico mais difundido na análise de estruturas. Ao longo das últimas décadas foram formulados inúmeros elementos finitos para análise de cascas e placas. As formulações de elementos finitos lidam bem com o campo de deslocamentos, mas geralmente faltam testes que possam validar os resultados obtidos para o campo das tensões. Este trabalho analisa o elemento finito T6-3i, um elemento finito triangular de seis nós proposto dentro de uma formulação geometricamente exata, em relação aos seus resultados de tensões, comparando-os com as teorias analíticas de placas, resultados de tabelas para o cálculo de momentos em placas retangulares e do ANSYSr, um software comercial para análise estrutural, mostrando que o T6-3i pode apresentar resultados insatisfatórios. Na segunda parte deste trabalho, as potencialidades do T6-3i são expandidas, sendo proposta uma formulação dinâmica para análise não linear de cascas. Utiliza-se um modelo Lagrangiano atualizado e a forma fraca é obtida do Teorema dos Trabalhos Virtuais. São feitas simulações numéricas da deformação de domos finos que apresentam vários snap-throughs e snap-backs, incluindo domos com vincos curvos, mostrando a robustez, simplicidade e versatilidade do elemento na sua formulação e na geração das malhas não estruturadas necessárias para as simulações.
Avaliação de métodos numéricos de análise linear de estabilidade para perfis de aço formados a frio.
Resumo:
Para o projeto de estruturas com perfis de aço formados a frio, é fundamental a compreensão dos fenômenos da instabilidade local e global, uma vez que estes apresentam alta esbeltez e baixa rigidez à torção. A determinação do carregamento crítico e a identificação do modo de instabilidade contribuem para o entendimento do comportamento dessas estruturas. Este trabalho avalia três metodologias para a análise linear de estabilidade de perfis de aço formados a frio isolados, com o objetivo de determinar os carregamentos críticos elásticos de bifurcação e os modos de instabilidade associados. Estritamente, analisa-se perfis de seção U enrijecido e Z enrijecido isolados, de diversos comprimentos e diferentes condições de vinculação e carregamento. Determinam-se os carregamentos críticos elásticos de bifurcação e os modos de instabilidade globais e locais por meio de: (i) análise com o Método das Faixas Finitas (MFF), através do uso do programa computacional CUFSM; (ii) análise com elementos finitos de barra baseados na Teoria Generalizada de Vigas (MEF-GBT), via uso do programa GBTUL; e (iii) análise com elementos finitos de casca (MEF-cascas) por meio do uso do programa ABAQUS. Algumas restrições e ressalvas com relação ao uso do MFF são apresentadas, assim como limitações da Teoria Generalizada de Viga e precauções a serem tomadas nos modelos de cascas. Analisa-se também a influência do grau de discretização da seção transversal. No entanto, não é feita avaliação em relação aos procedimentos normativos e tampouco análises não lineares, considerando as imperfeições geométricas iniciais, tensões residuais e o comportamento elastoplástico do material.
Resumo:
Este trabalho propõe uma extensão do método de propagação de feixe (BPM - Beam Propagation Method) para a análise de guias de ondas ópticos e acopladores baseados em materiais não-lineares do tipo Kerr. Este método se destina à investigação de estruturas onde a utilização da equação escalar de Helmholtz (EEH) em seu limite paraxial não mais se aplica. Os métodos desenvolvidos para este fim são denominados na literatura como métodos de propagação de feixe de ângulo largo. O formalismo aqui desenvolvido é baseado na técnica das diferenças finitas e nos esquemas de Crank-Nicholson (CN) e Douglas generalizado (GD). Estes esquemas apresentam como característica o fato de apresentarem um erro de truncamento em relação ao passo de discretização transversal, Δx, proporcional a O(Δx2) para o primeiro e O(Δx4). A convergência do método em ambos esquemas é otimizada pela utilização de um algoritmo interativo para a correção do campo no meio não-linear. O formalismo de ângulo largo é obtido pela expansão da EEH para os esquemas CN e GD em termos de polinômios aproximantes de Padé de ordem (1,0) e (1,1) para CN e GD, e (2,2) e (3,3) para CN. Os aproximantes de ordem superior a (1,1) apresentam sérios problemas de estabilidade. Este problema é eliminado pela rotação dos aproximantes no plano complexo. Duas condições de contorno nos extremos da janela computacional são também investigadas: 1) (TBC - Transparent Boundary Condition) e 2) condição de contorno absorvente (TAB - Transparent Absorbing Boundary). Estas condições de contorno possuem a facilidade de evitar que reflexões indesejáveis sejam transmitidas para dentro da janela computacional. Um estudo comparativo da influência destas condições de contorno na solução de guias de ondas ópticos não-lineares é também abordada neste trabalho.
Resumo:
De modo a satisfazer aspectos de resistência, custo ou conforto, o aperfeiçoamento do desempenho das estruturas é uma meta sempre almejada na Engenharia. Melhorias têm sido alcançadas dado ao crescente uso de materiais compósitos, pois estes apresentam propriedades físicas diferenciadas capazes de atender as necessidades de projeto. Associado ao emprego de compósitos, o estudo da plasticidade demonstra uma interessante alternativa para aumentar o desempenho estrutural ao conferir uma capacidade resistente adicional ao conjunto. Entretanto, alguns problemas podem ser encontrados na análise elastoplástica de compósitos, além das próprias dificuldades inerentes à incorporação de fibras na matriz, no caso de compósitos reforçados. A forma na qual um compósito reforçado por fibras e suas fases têm sua representação e simulação é de extrema importância para garantir que os resultados obtidos sejam compatíveis com a realidade. À medida que se desenvolvem modelos mais refinados, surgem problemas referentes ao custo computacional, além da necessidade de compatibilização dos graus de liberdade entre os nós das malhas de elementos finitos da matriz e do reforço, muitas vezes exigindo a coincidência das referidas malhas. O presente trabalho utiliza formulações que permitem a representação de compósitos reforçados com fibras sem que haja a necessidade de coincidência entre malhas. Além disso, este permite a simulação do meio e do reforço em regime elastoplástico com o objetivo de melhor estudar o real comportamento. O modelo constitutivo adotado para a plasticidade é o de von Mises 2D associativo com encruamento linear positivo e a solução deste modelo foi obtida através de um processo iterativo. A formulação de elementos finitos posicional é adotada com descrição Lagrangeana Total e apresenta as posições do corpo no espaço como parâmetros nodais. Com o intuito de averiguar a correta implementação das formulações consideradas, exemplos para validação e apresentação das funcionalidades do código computacional desenvolvido foram analisados.
Resumo:
O objeto deste trabalho é a análise do aproveitamento múltiplo do reservatório de Barra Bonita, localizado na confluência entre os rios Piracicaba e Tietê, no estado de São Paulo e pertencente ao chamado sistema Tietê-Paraná. Será realizada a otimização da operação do reservatório, através de programação linear, com o objetivo de aumentar a geração de energia elétrica, através da maximização da vazão turbinada. Em seguida, a partir dos resultados da otimização da geração de energia, serão utilizadas técnicas de simulação computacional, para se obter índices de desempenho conhecidos como confiabilidade, resiliência e vulnerabilidade, além de outros fornecidos pelo próprio modelo de simulação a ser utilizado. Estes índices auxiliam a avaliação da freqüência, magnitude e duração dos possíveis conflitos existentes. Serão analisados os possíveis conflitos entre a navegação, o armazenamento no reservatório, a geração de energia e a ocorrência de enchentes na cidade de Barra Bonita, localizada a jusante da barragem.
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.
Resumo:
Propõe-se método novo e completo para análise de acetona em ar exalado envolvendo coleta com pré-concentração em água, derivatização química e determinação eletroquímica assistida por novo algoritmo de processamento de sinais. Na literatura recente a acetona expirada vem sendo avaliada como biomarcador para monitoramento não invasivo de quadros clínicos como diabetes e insuficiência cardíaca, daí a importância da proposta. Entre as aminas que reagem com acetona para formar iminas eletroativas, estudadas por polarografia em meados do século passado, a glicina apresentou melhor conjunto de características para a definição do método de determinação por voltametria de onda quadrada sem a necessidade de remoção de oxigênio (25 Hz, amplitude de 20 mV, incremento de 5 mV, eletrodo de gota de mercúrio). O meio reacional, composto de glicina (2 mol·L-1) em meio NaOH (1 mol·L-1), serviu também de eletrólito e o pico de redução da imina em -1,57 V vs. Ag|AgCl constituiu o sinal analítico. Para tratamento dos sinais, foi desenvolvido e avaliado um algoritmo inovador baseado em interpolação de linha base por ajuste de curvas de Bézier e ajuste de gaussiana ao pico. Essa combinação permitiu reconhecimento e quantificação de picos relativamente baixos e largos sobre linha com curvatura acentuada e ruído, situação em que métodos convencionais falham e curvas do tipo spline se mostraram menos apropriadas. A implementação do algoritmo (disponível em http://github.com/batistagl/chemapps) foi realizada utilizando programa open source de álgebra matricial integrado diretamente com software de controle do potenciostato. Para demonstrar a generalidade da extensão dos recursos nativos do equipamento mediante integração com programação externa em linguagem Octave (open source), implementou-se a técnica da cronocoulometria tridimensional, com visualização de resultados já tratados em projeções de malha de perspectiva 3D sob qualquer ângulo. A determinação eletroquímica de acetona em fase aquosa, assistida pelo algoritmo baseado em curvas de Bézier, é rápida e automática, tem limite de detecção de 3,5·10-6 mol·L-1 (0,2 mg·L-1) e faixa linear que atende aos requisitos da análise em ar exalado. O acetaldeído, comumente presente em ar exalado, em especial, após consumo de bebidas alcoólicas, dá origem a pico voltamétrico em -1,40 V, contornando interferência que prejudica vários outros métodos publicados na literatura e abrindo possibilidade de determinação simultânea. Resultados obtidos com amostras reais são concordantes com os obtidos por método espectrofotométrico, em uso rotineiro desde o seu aperfeiçoamento na dissertação de mestrado do autor desta tese. Em relação à dissertação, também se otimizou a geometria do dispositivo de coleta, de modo a concentrar a acetona num volume menor de água gelada e prover maior conforto ao paciente. O método completo apresentado, englobando o dispositivo de amostragem aperfeiçoado e o novo e efetivo algoritmo para tratamento automático de sinais voltamétricos, está pronto para ser aplicado. Evolução para um analisador portátil depende de melhorias no limite de detecção e facilidade de obtenção eletrodos sólidos (impressos) com filme de mercúrio, vez que eletrodos de bismuto ou diamante dopado com boro, entre outros, não apresentaram resposta.
Resumo:
O objetivo da presente tese é realizar uma abordagem acerca da realidade das entidades científicas no contexto da formação de professores de física. A literatura em ensino de ciências destaca a importância do entendimento de aspectos da natureza da ciência por professores. Dentre esses aspectos, exploramos a questão da realidade das entidades inobserváveis descritas pelas teorias científicas, tratando sobretudo de critérios utilizados para a caracterização dessa realidade por licenciandos, bem como possíveis influências na constituição desses critérios. Consideramos que um professor de física, durante sua atuação profissional, precisará lidar com a questão da realidade de entidades não acessíveis aos sentidos, tendo talvez de explicar em que se baseia uma proposição sobre sua existência. No desenvolvimento do presente trabalho, trouxemos alguns elementos de uma discussão que se dá no âmbito filosófico a respeito do realismo científico e também abordamos formulações teóricas que tratam da questão da realidade em perspectivas que se referem ao campo cotidiano e ao senso comum. Como referencial mais geral, utilizamos uma abordagem sobre cultura, que aponta para a influência de diversas estruturas culturais nas formas de entendimento do mundo e permite conceber a ciência como uma dessas estruturas. Entre outras coisas, a aprendizagem da ciência envolveria a compreensão de suas formas específicas de atribuir realidade, em contraposição às formas de outras estruturas culturais. Foram desenvolvidos três estudos, com análises fundamentadas em metodologias qualitativas. No primeiro, investigamos critérios usados por licenciandos em física para definir a realidade de entidades da ciência e de entes relacionados a outros domínios; no segundo, analisamos formas pelas quais certas entidades científicas são caracterizadas e tomadas como reais em uma coleção de livros didáticos de física do ensino superior; e, por fim, o terceiro consistiu na construção e utilização de um heurístico, com o objetivo de proporcionar reflexões acerca de questões relacionadas ao conhecimento científico e a elementos de outras estruturas culturais e foram analisadas as entrevistas de quatro estudantes de licenciatura sobre o uso desse instrumento. Os resultados obtidos parecem mostrar que há influência de elementos vindos de fora da ciência nos critérios utilizados por estudantes para a definição da realidade das entidades. Além disso, mostram que esse tema não é comumente trazido à reflexão dos alunos, o que não contribui para a reelaboração dos critérios de realidade já trazidos por eles de outros campos que não o científico. O heurístico utilizado no terceiro estudo serviu para trazer à tona as bases do pensamento dos estudantes e lhes indicar certos elementos para reflexão; existiram diferenças nos tipos de reflexão suscitados pelo instrumento, o que consideramos ser uma espécie de \"contextualização cultural\" na maneira de compreender as questões trazidas por ele. O desenvolvimento dos três estudos nos permitiu compreender alguns aspectos relevantes sobre os modos de entendimento das entidades da ciência e pensar sobre suas formas de tratamento em um curso de física.
Resumo:
O objetivo dessa pesquisa foi avaliar aspectos genéticos que relacionados à produção in vitro de embriões na raça Guzerá. O primeiro estudo focou na estimação de (co) variâncias genéticas e fenotípicas em características relacionadas a produção de embriões e na detecção de possível associação com a idade ao primeiro parto (AFC). Foi detectada baixa e média herdabilidade para características relacionadas à produção de oócitos e embriões. Houve fraca associação genética entre características ligadas a reprodução artificial e a idade ao primeiro parto. O segundo estudo avaliou tendências genéticas e de endogamia em uma população Guzerá no Brasil. Doadoras e embriões produzidos in vitro foram considerados como duas subpopulações de forma a realizar comparações acerca das diferenças de variação anual genética e do coeficiente de endogamia. A tendência anual do coeficiente de endogamia (F) foi superior para a população geral, sendo detectado efeito quadrático. No entanto, a média de F para a sub- população de embriões foi maior do que na população geral e das doadoras. Foi observado ganho genético anual superior para a idade ao primeiro parto e para a produção de leite (305 dias) entre embriões produzidos in vitro do que entre doadoras ou entre a população geral. O terceiro estudo examinou os efeitos do coeficiente de endogamia da doadora, do reprodutor (usado na fertilização in vitro) e dos embriões sobre resultados de produção in vitro de embriões na raça Guzerá. Foi detectado efeito da endogamia da doadora e dos embriões sobre as características estudadas. O quarto (e último) estudo foi elaborado para comparar a adequação de modelos mistos lineares e generalizados sob método de Máxima Verossimilhança Restrita (REML) e sua adequação a variáveis discretas. Quatro modelos hierárquicos assumindo diferentes distribuições para dados de contagem encontrados no banco. Inferência foi realizada com base em diagnósticos de resíduo e comparação de razões entre componentes de variância para os modelos em cada variável. Modelos Poisson superaram tanto o modelo linear (com e sem transformação da variável) quanto binomial negativo à qualidade do ajuste e capacidade preditiva, apesar de claras diferenças observadas na distribuição das variáveis. Entre os modelos testados, a pior qualidade de ajuste foi obtida para o modelo linear mediante transformação logarítmica (Log10 X +1) da variável resposta.
Resumo:
In the analysis of heart rate variability (HRV) are used temporal series that contains the distances between successive heartbeats in order to assess autonomic regulation of the cardiovascular system. These series are obtained from the electrocardiogram (ECG) signal analysis, which can be affected by different types of artifacts leading to incorrect interpretations in the analysis of the HRV signals. Classic approach to deal with these artifacts implies the use of correction methods, some of them based on interpolation, substitution or statistical techniques. However, there are few studies that shows the accuracy and performance of these correction methods on real HRV signals. This study aims to determine the performance of some linear and non-linear correction methods on HRV signals with induced artefacts by quantification of its linear and nonlinear HRV parameters. As part of the methodology, ECG signals of rats measured using the technique of telemetry were used to generate real heart rate variability signals without any error. In these series were simulated missing points (beats) in different quantities in order to emulate a real experimental situation as accurately as possible. In order to compare recovering efficiency, deletion (DEL), linear interpolation (LI), cubic spline interpolation (CI), moving average window (MAW) and nonlinear predictive interpolation (NPI) were used as correction methods for the series with induced artifacts. The accuracy of each correction method was known through the results obtained after the measurement of the mean value of the series (AVNN), standard deviation (SDNN), root mean square error of the differences between successive heartbeats (RMSSD), Lomb\'s periodogram (LSP), Detrended Fluctuation Analysis (DFA), multiscale entropy (MSE) and symbolic dynamics (SD) on each HRV signal with and without artifacts. The results show that, at low levels of missing points the performance of all correction techniques are very similar with very close values for each HRV parameter. However, at higher levels of losses only the NPI method allows to obtain HRV parameters with low error values and low quantity of significant differences in comparison to the values calculated for the same signals without the presence of missing points.
Resumo:
A necessidade de obter solução de grandes sistemas lineares resultantes de processos de discretização de equações diferenciais parciais provenientes da modelagem de diferentes fenômenos físicos conduz à busca de técnicas numéricas escaláveis. Métodos multigrid são classificados como algoritmos escaláveis.Um estimador de erros deve estar associado à solução numérica do problema discreto de modo a propiciar a adequada avaliação da solução obtida pelo processo de aproximação. Nesse contexto, a presente tese caracteriza-se pela proposta de reutilização das estruturas matriciais hierárquicas de operadores de transferência e restrição dos métodos multigrid algébricos para acelerar o tempo de solução dos sistemas lineares associados à equação do transporte de contaminantes em meio poroso saturado. Adicionalmente, caracteriza-se pela implementação das estimativas residuais para os problemas que envolvem dados constantes ou não constantes, os regimes de pequena ou grande advecção e pela proposta de utilização das estimativas residuais associadas ao termo de fonte e à condição inicial para construir procedimentos adaptativos para os dados do problema. O desenvolvimento dos códigos do método de elementos finitos, do estimador residual e dos procedimentos adaptativos foram baseados no projeto FEniCS, utilizando a linguagem de programação PYTHONR e desenvolvidos na plataforma Eclipse. A implementação dos métodos multigrid algébricos com reutilização considera a biblioteca PyAMG. Baseado na reutilização das estruturas hierárquicas, os métodos multigrid com reutilização com parâmetro fixo e automática são propostos, e esses conceitos são estendidos para os métodos iterativos não-estacionários tais como GMRES e BICGSTAB. Os resultados numéricos mostraram que o estimador residual captura o comportamento do erro real da solução numérica, e fornece algoritmos adaptativos para os dados cuja malha retornada produz uma solução numérica similar à uma malha uniforme com mais elementos. Adicionalmente, os métodos com reutilização são mais rápidos que os métodos que não empregam o processo de reutilização de estruturas. Além disso, a eficiência dos métodos com reutilização também pode ser observada na solução do problema auxiliar, o qual é necessário para obtenção das estimativas residuais para o regime de grande advecção. Esses resultados englobam tanto os métodos multigrid algébricos do tipo SA quanto os métodos pré-condicionados por métodos multigrid algébrico SA, e envolvem o transporte de contaminantes em regime de pequena e grande advecção, malhas estruturadas e não estruturadas, problemas bidimensionais, problemas tridimensionais e domínios com diferentes escalas.
Resumo:
O aumento da resistência microbiana devido a fatores como uso excessivo e ineficiente de antibióticos convencionais acarreta a necessidade da busca por novos compostos bioativos que atuem por mecanismos de ação diferentes aos fármacos já conhecidos. Na agricultura, o uso intensivo de pesticidas para o combate de microrganismos que comprometem principalmente a parte alimentícia também traz diversos problemas relacionados à resistência antimicrobiana e a riscos ambientais, oriundos do acúmulo dessas substâncias no solo. Dentro deste aspecto, o pseudofungo Pythium aphanidermatum, da classe dos oomicetos, destaca-se por ser uma espécie agressiva e altamente resistente a fungicidas comuns, apodrecendo raízes e frutos de cultivos de tomate, beterraba, pepino, pimentão, etc. A própolis verde, constituída em sua grande parte por material resinoso coletado e processado pela abelha da espécie Apis mellifera tem sido utilizada na medicina tradicional devido ao seu amplo espectro de ações preventivas e tratamentos de doenças, possuindo propriedades anti-inflamatórias, antimicrobianas, anticancerígenas e antioxidantes, tornando-se um produto de grande interesse na busca de novos compostos bioativos. Dentro destes aspectos apresentados, neste trabalho investigamos a ação da própolis verde contra o fitopatógeno P. aphanidermatum e identificamos através da técnica de cromatografia e bioensaios que a Artepillin C (3,5-diprenil-4-ácido-hidroxicinâmico), majoritária na própolis verde, foi o principal composto nesta ação. Os efeitos terapêuticos desta molécula tem sido foco de muitos estudos, porém ainda não há evidência em sua interação com agregados anfifílicos que mimetizam membranas celulares. O caráter anfifílico do composto, elevado pela presença dos grupos prenilados ligados ao ácido cinâmico, favoreceram a sua inserção nas membranas modelo, principalmente em seu estado agregado. Estas conclusões puderam ser inferidas devido às alterações nas propriedades das bicamadas lipídicas na presença da Artepillin C, podendo causar, especificamente para o caso de fitopatógenos como o P. aphanidermatum, perdas funcionais das proteínas de membranas, liberação de eletrólitos intracelulares e desintegração citoplasmática dos micélios e esporos. Ainda, as diferentes composições lipídicas nas vesículas influenciam no modo de interação do composto e consequentes alterações em suas estruturas, principalmente na presença do colesterol, que auxilia na manutenção da permeabilidade da bicamada lipídica, que pode contribuir para a integridade do conteúdo citoplasmático da célula.
Resumo:
A lamotrigina (LTG) é um fármaco pertencente à classe das feniltriazinas utilizado no tratamento de crises epilépticas generalizadas e focais e no tratamento adjunto da epilepsia refratária. Devido à alta variabilidade interindividual, às interações medicamentosas e aos efeitos adversos apresentados durante a administração da LTG, a monitorização terapêutica nos pacientes que fazem uso deste fármaco é necessária para ajuste de dose individual e evitar os efeitos adversos. Assim, o objetivo deste trabalho foi a avaliação de duas técnicas de microextração: a microextração em fase líquida com fibras ocas (HF-LPME) e a microextração líquido-líquido dispersiva (DLLME) para análise da lamotrigina em amostras de plasma de pacientes epilépticos. Primeiramente foram definidas as condições eletroforéticas: foi utilizado um capilar de sílica fundida de 75 ?m de diâmetro interno e 50 cm de comprimento efetivo. O eletrólito de corrida (BGE) foi composto por ácido 2-morfolinoetanosulfônico (MES), na concentração de 130 mmol L-1 e pH 5,0. As análises foram realizadas à temperatura de 20°C e tensão de 15 kV. A amostra foi injetada hidrodinamicamente (0,5 psi por 10 s) e a detecção foi feita em 214 nm. Nestas condições a LTG e o padrão interno (PI), lidocaína, puderam ser analisados em menos de 7 minutos. A HF-LPME foi avaliada no modo de 3 fases, usando 500 ?L de plasma e 3,5 mL de solução fosfato de sódio 50 mmol L-1 pH 9,0 como fase doadora. O solvente utilizado para impregnar a fibra foi o 1-octanol. Como fase aceptora foram utilizados 60 ?L de solução de ácido clorídrico pH 4,0. Para avaliação da DLLME, foi necessária uma etapa de pré-tratamento da amostra (500 ?L de plasma) com 1 mL de acetonitrila. Após isto, 1,3 mL do sobrenadante foram adicionados a 4 mL de solução fosfato de sódio 50 mmol L-1 pH 9,0 e 120 ?L de clorofórmio (solvente extrator) foram injetados nesta amostra aquosa e 165 ?L de fase sedimentada foram recuperados. As características de desempenho analítico para ambos os métodos foram avaliadas, sendo obtida linearidade na faixa de concentração plasmática de 1-20 ?g/mL e limite inferior de quantificação (LIQ) de 1 ?g mL-1. Os ensaios de precisão e exatidão apresentaram valores de acordo com os guias oficiais. Além disso, os métodos foram seletivos, não apresentaram efeito residual e as amostras foram estáveis. Os valores de recuperação foram de 54,3 e 23% para HF-LPME e DLLME, respectivamente. Os métodos validados foram aplicados com sucesso em amostras de plasma de pacientes epilépticos em tratamento com a LTG. Além disso, as duas técnicas foram comparadas e a HF-LPME apresentou vantagens em relação à DLLME, mostrando ser uma técnica promissora para análise de matrizes complexas, com reduzido consumo de solvente orgânico e possibilidade de automação.
Resumo:
Este trabalho teve o propósito de avaliar a relação entre a cartilagem alar e a abertura piriforme a partir de imagens de tomografia computadorizada cone-beam e a relação do nariz com o padrão esquelético vertical da face. A pesquisa foi realizada com 96 imagens de indivíduos de ambos os sexos (49 masculino e 47 feminino), com idades entre 18 e 65 anos classificados de acordo com sua tipologia facial. Para a realização das marcações e mensurações de interesse foi utilizado o software OsiriX. A tipologia facial foi acessada através de três metodologias: índice facial, ângulo goníaco e proporção entre as alturas faciais. No corte axial da imagem de tomografia computadorizada, foram aferidas quatro grandezas lineares: largura do nariz externo, distância entre as inserções alares, extensão da base da abertura piriforme e máxima largura da abertura piriforme. Todas as grandezas foram mensuradas por dois examinadores em concordância. A análise dos resultados obtidos mostrou que há correlação entre as larguras do nariz externo e da abertura piriforme e entre a base da cavidade nasal e a distância entre as inserções alares. A largura da abertura piriforme aumenta proporcionalmente mais que a do nariz. Além disso, a tipologia facial longa associa-se à largura nasal.