59 resultados para Modelo cinético de pseudo-segunda-ordem
Estudo do desempenho em fadiga do componente tibial metálico de um modelo de prótese total de joelho
Resumo:
A substituição total de uma articulação de joelho é uma técnica amplamente usada para corrigir os danos irreversíveis na juntas originais, causadas por patologias como osteoartrite e artrite reumatóide. Com o aumento número de pacientes jovens e mais ativos, a evolução na técnica da substituição da articulação total de joelho visando desempenho de longo prazo passa a ser uma demanda crítica. Portanto, na tentativa de evitar as falhas prematuras e prolongar a vida em serviço como um todo, as modificações na bandeja tibial podem produzir erros fundamentais. O design da bandeja tibial é um importante fator, porque a sua fratura pode ocorrer em função de elementos geométricos da mesma, como raios de concordância e cantos vivos. A escolha do material e do processo de fabricação também são importantes. No tocante a rota de fabricação, pode ser visto que as ligas forjadas tem o maior limite de fadiga, se comparado com as obtidas pelo processo de fundição. Entretanto, a combinação das técnicas de desenho assistido por computador (CAD), engenharia assistida por computador (CAE) e manufatura assistida por computador (CAM) podem ser uma solução rápida e barata para alcançar melhores características das bandejas tibiais. Contudo, testes pré-clínicos devem ser executados para garantir que as bandejas tibiais não falharão prematuramente devido à fadiga. As técnicas de metalografia, microdureza e espectrometria foram empregadas neste trabalho com o objetivo de caracterizar metalurgicamente a liga de aço inoxidável atualmente empregada. A rugosidade superficial foi avaliada, assim como o número de ciclos para a iniciação das trincas. Com a utilização do método de elementos finitos, verificou-se o ponto de maior tensão e, aliado ao estudo de fractografia, foi determinado o modo de falha Os resultados indicaram que o material atualmente empregado não está em conformidade com todos os requisitos das normas vigentes, de forma que um material alternativo é sugerido. Com o objetivo de melhorar a resistência à fadiga sem apresentar problemas de ordem clínica, cinco geometrias foram propostas e os resultados da análise de tensões pelo método de elementos finitos indicaram um grande potencial de aumento da vida em fadiga.
Resumo:
O objetivo deste trabalho é a introdução e desenvolvimento de uma metodologia analítico-simbólica para a obtenção de respostas dinâmicas e forçadas (soluções homogêneas e não homogêneas) de sistemas distribuídos, em domínios ilimitados e limitados, através do uso da base dinâmica gerada a partir da resposta impulso. Em domínios limitados, a resposta impulso foi formulada pelo método espectral. Foram considerados sistemas com condições de contorno homogêneas e não homogêneas. Para sistemas de natureza estável, a resposta forçada é decomposta na soma de uma resposta particular e de uma resposta livre induzida pelos valores iniciais da resposta particular. As respostas particulares, para entradas oscilatórias no tempo, foram calculadas com o uso da fun»c~ao de Green espacial. A teoria é desenvolvida de maneira geral permitindo que diferentes sis- temas evolutivos de ordem arbitrária possam ser tratados sistematicamente de uma forma compacta e simples. Realizou-se simulações simbólicas para a obtenção de respostas dinâmicas e respostas for»cadas com equações do tipo parabólico e hiperbólico em 1D,2D e 3D. O cálculo das respostas forçadas foi realizado com a determinação das respostas livres transientes em termos dos valores iniciais das respostas permanentes. Foi simulada a decomposição da resposta forçada da superfície livre de um modelo acoplado oceano-atmosfera bidimensional, através da resolução de uma equação de Klein-Gordon 2D com termo não-homogêneo de natureza dinâmica, devido a tensão de cisalhamento na superfície do oceano pela ação do vento.
Resumo:
Nesta tese estudamos os efeitos de diluição simétrica gradual das conexões entre neurônios e de ruído sináptico sobre a habilidade de categorização de padrões no modelo de Hopfield de redes neurais, mediante a teoria de campo médio com simetria de réplicas e simulações numéricas. Utilizamos generalizações da regra de aprendizagem de Hebb, para uma estrutura hierárquica de padrões correlacionados em dois níveis, representando os ancestrais (conceitos) e descendentes (exemplos dos conceitos). A categorização consiste no reconhecimento dos conceitos por uma rede treinada unicamente com exemplos dos conceitos. Para a rede completamente conexa, obtivemos os diagramas de fases e as curvas de categorização para vários níveis de ruído sináptico. Observamos dois comportamentos distintos dependendo do parâmetro de armazenamento. A habilidade de categorização é favorecida pelo ruído sináptico para um número finito de conceitos, enquanto que para um número macroscópico de conceitos este favorecimento não é observado. Entretanto a performance da rede permanece robusta contra o ruído sináptico. No problema de diluição simétrica consideramos apenas um número macroscópico de conceitos, cada um com um número finito de exemplos. Os diagramas de fases obtidos exibem fases de categorização, de vidro de spin e paramagnética, bem como a dependência dos parâmetros de ordem com o número de exemplos, a correlação entre exemplos e conceitos, os ruídos sináptico e estocástico, e a conectividade. A diluição favorece consideravelmente a categorização, particularmente no limite de diluição extrema.
Resumo:
Os Problemas de Roteirização em Arcos constituem uma classe dos Problemas de Roteirização de Veículos, nos quais as demandas ocorrem de maneira contínua ao longo dos segmentos de uma rede de transporte. O campo de aplicação dos Problemas de Roteirização em Arcos abrange o planejamento da operação de serviços como a coleta de lixo; a entrega de correspondência e de jornais; a leitura de medidores de energia elétrica, água e gás; e o transporte escolar por ônibus. Nas situações de ordem prática é comum a ocorrência de restrições operacionais que impossibilitam o atendimento de todas as demandas existentes em uma rede de transporte por um único veículo ou pessoa. Desse modo, além da seqüência de percurso, é necessário determinar o conjunto de segmentos de via que cada unidade de trabalho pertencente a uma frota ou equipe de serviço deve atender. Este trabalho apresenta os aspectos conceituais e resolutivos dos Problemas de Roteirização em Arcos e do Problema do Particionamento de Redes de Transporte. É feita também a proposição de um modelo de resolução, desenvolvido a partir da estratégia de agrupar primeiro – roteirizar depois, para o Problema de Roteirização em Arcos Capacitado descrito em grafos não orientados. A demonstração do modelo é feita através de sua aplicação em um estudo de caso. São feitas, a seguir, a análise do desempenho do modelo nesta aplicação e a comparação entre os resultados obtidos e a prática atualmente utilizada, a qual é baseada na experiência de um planejador.
Resumo:
O objetivo desta tese foi o desenvolvimento de um modelo que permita descrever a percepção de conforto e a percepção de risco. A sua fundamentação teórica foi construída com base em diferentes abordagens (Ergonomia,Teorias do Desing, Teorias de Risco, Psicologia Cognitiva e Semiótica) e foi direcionada à compreensão de como as pessoas se relacionam com produtos, como se define conforto e como os riscos são percebidos. Um desafio inicial passou pela definição de conforto, que é um conceito difuso, não bem definido na literatura. Por outro lado,a percepção de risco é claramente definida por meio de diversos modelos, a despeito de diversos desses modelos não considerarem diferenças culturais e individuais. Entre diversas possibilidades,esta tese foi direcionada ao calçado de saltos altos e bicos finos, que é um controverso objeto que inspira paixão e medo. Com o objetivo de compreender a percepção de conforto e de risco relacionada ao uso de calçados feminimos, foram realizadas duas pesquisas: a primeira visando compreender o senso comum acerca do tema, e a segunda para compreender a percepção das usuárias. Os resultados indicaram que a percepção de conforto e a percepção de risco são influenciadas por características individuais, que foram identificadas como referências dominantes. Para indivíduos que tem a referência dominante orientada ao prazer,a aparência é importante e afeta a percepção de conforto, enquanto é negado o risco. Nos casos em que a dor é a referência dominante, a aparência é negligenciada, enquanto a percepção de risco apresenta-se altamente sensível e afeta a percepçãp de conforto. Com base nos resultados das pesquisas e em referências teóricas (JORDAN,1997; COELHO&DAHLMAN,2002; CABANAC,2002; DESMET,2003; NORMAN,2004), foi proposto um modelo para a percepção de conforto e risco Esse modelo inclui as dimensões do produto (aparência, usabilidade e funcinabilidade), as formas de estímulo( como objeto, agente ou evento), a referência dominante( prazer ou dor), os níveis do processo de avaliação (visceral, comportamental ou reflexivo) e as respostas afetivas (emoções prazerosas, sentimentos de indiferença e/ou emoções desprazerosas). Acredita-se que este modelo pode ser usado tanto com fins preditivos como explicativos. Contudo, é necessário ainda validá-lo, por meio de experimentos com outras categorias de produtos.
Resumo:
Este trabalho apresenta um modelo de gerenciamento dinâmico de uma cadeia de suprimentos que tem por objetivo determinar os níveis de pedidos, vendas, estoque e níveis de serviço da cadeia de suprimentos de modo a otimizar a lucratividade total da cadeia. A lucratividade da cadeia de suprimentos é enfocada sob a perspectiva da inclusão dos efeitos dos custos de transporte por meio de uma estrutura linear côncava de custos. Essa estrutura é composta por um conjunto de equações ajustadas, representativas dos custos de transporte. Assim, é possível a obtenção de economias de escala em função das quantidades entregues. O trabalho pode ser dividido em duas etapas principais. A primeira etapa compreende, em um contexto de gerenciamento da cadeia de suprimentos, uma revisão bibliográfica que abrange os principais aspectos da modelagem tradicionalmente utilizada para a determinação de quantidades ótimas de pedido e entrega, as principais deficiências e as diferentes abordagens de custos de transporte. A segunda etapa é caracterizada pela formulação, simulação e avaliação dos resultados do modelo de gerenciamento dinâmico da cadeia. Nessa etapa, analisa-se a influência da estrutura de custos de transporte nas decisões de reabastecimento da cadeia de suprimentos. A determinação dos níveis de pedidos, vendas, estoque e de serviço, os custos e a lucratividade da cadeia é feita a partir da otimização de cenários. Neste trabalho realiza-se uma análise comparativa de cenários para identificar a influência da alteração de parâmetros nos resultados do modelo. Os resultados apresentam-se promissores e, com relação aos custos de transporte, verificou-se que os limites de capacidade de transporte e os custos mínimos de transporte têm grande influência nas decisões de reabastecimento. Enfim, a principal contribuição deste trabalho está relacionada à possibilidade de tornar a estrutura de custos de transporte dos modelos de gerenciamento dinâmico da cadeia de suprimentos mais próxima da estrutura de custos reais. Palavras-chave: cadeia de suprimentos; custos de transporte; modelo de gerenciamento dinâmico.
Resumo:
Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.
Resumo:
Em se tratando dos aglomerados de empresas, os Arranjos Produtivos Locais(APL) são vistos como uma alternativa concreta de ganhos competitivos para os atores e agentes que ali estão estabelecidos, sendo o enfoque dos esforços de instituições que querem contribuir para que esta competitividade seja fortalecida. Porém, a dificuldade está em avaliar em que nível está cada um destes APL e constatar se as ações realizadas para este conjunto de atores e agentes surtem o efeito desejado. Assim sendo, o presente trabalho procurou criar, através de um conjunto de critérios e parâmetros, baseados no sistema de avaliação do Programa Gaúcho de Qualidade e Produtividade(PGQP), um instrumento de avaliação para um Arranjo Produtivo Local, contribuindo com parâmetros comparativos e analíticos. Para que isto se concretizasse, este trabalho foi realizado em três grandes etapas: a primeira que aborada a revisão bibliográfica, que enfatiza a competição, a conceitualização do arranjo produtivo local e os sistemas de avaliação; a segunda que refere-se à proposta do modelo construído e a forma de aplicação do mesmo; e a terceira etapa, com a aplicação do modelo em arranjos produtivos existentes e sua scaracterizações, análises e conclusões dos resultados da pesquisa. A realização deste trabalho abordou o modelo proposto em três APLs do estado do Rio Grande do Sul, sendo estes: o metalmecânico da região Noroeste do estado; o moveleiro da região Serrana do estado e as malharias da região das Hortências do estado. Pode-se dizer que os resultados desta pesquisa contribuem de forma significativa para avaliação de APL, permitindo que sejam identificadas as formas de medir os resultados de ações voltadas para áreas estratégicas deste tipo de aglomerado. Os resultados alcançados apontam que, apesar de existir uma diversidade de setores e também de regiões, o instrumento aqui proposto consegue, através da avaliação dos oito critérios - governança, agendas coletivas, mercado-alvo, sustentabilidade ambiental, inteligência competitiva, atores e agentes, cooperação e processos e resultados - identificar qual o grau de maturidade de cada um destes critérios estabelecidos.
Resumo:
Esta dissertação procura promover uma análise da mudança de regimes na volatilidade condicional do risco Brasil, após a implementação do Real, com ênfase nas mudanças markovianas de regimes. De acordo com a literatura de risco país, na presença de equilíbrios múltiplos e profecias auto-realizáveis, a deterioração dos fundamentos percebidos de um país é condição necessária para a determinação de um equilíbrio macroeconômico ruim de uma pequena economia aberta e em desenvolvimento (PEAD), com reversão de capitais, alto serviço da dívida pública, perspectivas sombrias de crescimento e uma avaliação do crédito como ruim (Razin & Sadka, 2001). Ainda que tal condição seja necessária, ela não parece ser suficiente para explicar por que, em alguns momentos, apesar de um nível alto de risco país, o equilíbrio tido como ruim não se materializa. Neste sentido, através da adaptação de um jogo típico de modelos de crises cambiais de segunda geração, esta dissertação lança a hipótese de que uma das razões pelas quais uma PEAD sofra tais crises de liquidez seja a deterioração da média dos fundamentos percebidos ao lado do aumento do medo dos investidores de que haja interrupções no fluxo de capitais. A metodologia utilizada é a dos modelos GARCH nãolineares com componentes observáveis e não observáveis markovianos, aplicados à série diária do risco país do Brasil entre maio de 1994 a setembro de 2002. Os resultados empíricos sugerem que, de fato, durante os episódios de crise de liquidez do Brasil, o risco país sobe e a volatilidade muda para um regime mais alto. Em contrapartida, nos períodos com regimes baixos de volatilidade, independentemente do nível do risco país, nenhuma crise severa e repentina atinge o país. Além disso, ainda que não desprovida de limitações, a análise da volatilidade condicional do risco país pode servir como um instrumento prático de monitoramento da duração de crises de liquidez para uma PEAD altamente dependente do influxo de capitais externos como o Brasil.
Resumo:
Estudamos vidros de spin de Ising de alcance infinito com campo transverso. A função de partição foi calculada no formalismo da integral funcional com operadores de spins na representação fermiônica e dentro da aproximação estática e na primeira etapa de quebra de simetria de réplicas da teoria de Parisi onde o conjunto de n réplicas é dividido em K blocos de m elementos. Obtivemos uma expressão para energia livre, entropia e energia interna para dois modelos: o modelo de quatro estados onde o operador Szi tem dois autovalores não físicos que são suprimidos por um vínculo no modelo de dois estados. A temperatura crítica em função do campo transverso, isto é, Tc(T), para ambos os modelos, diminui quando T cresce até atingir um valor crítico Tc. Fizemos também estudo numérico para os parâmetros de ordem, energia livre, entropia, energia interna e diagrama de fase com o parâmetro m fixo. Em ambos os modelos, a fase de vidros de spins é instável. Nosso trabalho difere da teoria de Parisi, onde m é dependente da temperatura. Na segunda parte da tese,analisamos vidros de spin com campo transverso na teoria de C. De Dominicis et. al. para o modelo de dois estados e o moidelo de quatro estados. Calculamos energia livre, a temperatura crítica Tc(T), determinamos o campo crítico e obtemos o diagrama de fase numericamente para ambos os modelos.
Resumo:
Este trabalho apresenta um modelo de análise estática de programas orientados a objetos, o qual se denomina DEPAnalyzer (DEPendencies Analyzer). O modelo realiza a análise das dependências entre as classes de um programa, ou seja, os relacionamentos estabelecidos entre estas. As classes representam as entidades estáticas, as quais em tempo de execução darão origem a conjuntos de objetos. Através da simulação do programa o modelo consegue obter as informações sobre quem se relaciona com quem e qual é a intensidade destes relacionamentos. Estas informações visam auxiliar no processo de escalonamento de um programa em uma arquitetura distribuída. Para expressar estes relacionamentos podem ser gerados dois grafos, o grafo de dependências e o grafo de invocações. A geração de um ou de ambos depende do propósito de utilização, ou seja, alocação inicial ou redistribuição dos objetos. O grafo de dependências apresenta uma versão resumida dos relacionamentos. Este adequa-se a auxiliar no processo de distribuição inicial por propiciar um panorama geral dos relacionamentos sem considerar a ordenação de ocorrência das ações. Por sua vez o grafo de invocações tem como propósito a discriminação da ordem de ocorrência das ações de uma aplicação. Viabilizando a utilização deste por parte do processo de redistribuição dos objetos.
Resumo:
Introdução: Estenose subglótica (ESG) é definida como o estreitamento da porção inferior da laringe. De etiologia congênita ou adquirida, ela é a segunda causa de estridor e a segunda causa de indicação de traqueostomia na criança. As dificuldades encontradas no manejo da estenose subglótica, principalmente na população pediátrica, justificam o desenvolvimento de modelos experimentais de fácil reprodutibilidade, poucas complicações e baixo custo. O objetivo deste estudo foi comparar dois métodos de indução experimental de estenose subglótica.Material e métodos: No período de janeiro a dezembro de 2003, vinte cães foram selecionados de forma aleatória, e colocados por sorteio em dois grupos: Gp I (n=9) de eletrocoagulação e Gp II (n=11) de infiltração de NaOH 23 %. No Gp I foi realizada eletrocoagulação com auto-interrupção, aplicada em um ponto nos quatro quadrantes da cartilagem cricóide; no Gp II infiltração de 0,2 ml de NaOH 23 % na camada submucosa das porções anterior e posterior da cartilagem cricóide. A cada semana foi feita endoscopia e aferição do calibre da região subglótica por tubos endotraqueais, e nova aplicação de eletrocoagulação ou infiltração NaOH 23 % realizada quando não havia evidência de estenose subglótica. Os animais foram sacrificados após 21 dias da aplicação; aqueles que apresentaram sofrimento respiratório foram sacrificados antes. Resultados : Um animal do Gp I morreu 14 dias após a aplicação, durante o transporte; dois animais do Gp II morreram: um por fístula traqueoesofágica após 7 dias, e outro de causa indeterminada após 5 dias. Estenose subglótica significativa (acima de 51% de obstrução) foi observada em 67% dos animais do Gp I e 64% do Gp II (p=0,99). A mediana de tempo para o surgimento de estenose significativa foi de 21 dias em ambos os grupos, necessitando em média de 2 a 3 aplicações. O tempo necessário para a realização dos procedimentos foi significativamente menor (p<0,01) no Gp I (média 6,36 minutos) do que no Gp II (média de 14,88 minutos). Conclusão : Os dois modelos experimentais de estenose subglótica estudados em cães demonstraram ser efetivos no desenvolvimento de estenose subglótica significativa: ambos métodos estudados ocasionaram estenose no mesmo período de tempo e com mesmo número de aplicações. Entretanto, a eletrocoagulação foi o método de mais rápida execução.
Resumo:
Neste trabalho, apresenta-se um estudo numérico de um modelo convectivo-difusivo-reativo em combustão baseado no Método de Elementos Finitos. Primeiramente, apresenta-se o desenvolvimento das equações de balanço (quantidade de movimento, massa, espécie e energia) que modelam um processo de mistura molecular e reação química, irreversível, de passo único e exotérmica entre duas espécies químicas F (Combustível) e O (Oxidante). Tais espécies reagem e formam um produto P, conforme vFF +vOO ! vPP + calor, onde vF , vO e vP são os coeficientes estequiométricos molares. No modelo, considera-se que a reação é de primeira ordem com respeito a cada um dos reagentes e que a taxa de reação específica segue a cinética de Arrhenius. Em seguida, o modelo é estudado numericamente considerando-se um domínio retangular e condições de contorno do tipo Neumann. Tanto a Técnica das Diferenças Finitas como a Técnica de Elementos Finitos são utilizadas na discretização espacial das equações do modelo. Para a integração no tempo, utiliza-se a método de Runge-Kutta simplificado de três estágios. Os diferentes códigos computacionais obtidos, tanto pela Técnica de Diferenças Finitas como de Elementos Finitos, são comparados frente ao problema de interesse. Observa-se que ambas as técnicas apresentam resultados equivalentes. Além disso, os códigos desenvolvidos são robustos (capazes de lidar com vários conjuntos de parâmetros), de baixo custo e precisos. Por fim, apresenta-se uma revisão do trabalho de Zavaleta [48], no qual obtem-se uma estimativa local do erro na aproximação do problema estudado pela Técnica de Elementos Finitos.
Resumo:
O crescimento da expectativa de vida média da população mundial tem sido acompanhado do aumento na prevalência de doenças neurodegenerativas, como a doença de Parkinson, isquemia cerebral e, especialmente, a doença de Alzheimer. A doença de Alzheimer (DA) caracteriza-se por um crescente declínio na função mental e memória do paciente. Estes sintomas são explicados por uma profunda perda neuronal e pela presença de alterações estruturais no tecido cerebral: as placas senis, extracelulares e os emaranhados neurofibrilares, intracelulares. O passo que desencadeia a neurodegeneração na DA é ainda objeto de estudo, mas a hipótese mais aceita atualmente é a de que a secreção anormal do peptídeo β amilóide (Aβ), principal componente das placas senis, dê início ao processo. O presente trabalho teve como objetivos investigar a toxicidade induzida pelo peptídeo Aβ1-42 e seu fragmento, o peptídeo Aβ25-35 em culturas organotípicas de hipocampo de ratos. Na primeira parte do trabalho, investigamos a toxicidade induzida pela exposição de culturas organotípicas de hipocampo de ratos a 10 ou 20 μM do peptídeo Aβ1-42, por 24 ou 72 h. Além disso, investigamos o envolvimento das proteínas iNOS e GSK-3β no mecanismo de morte celular induzida pelo peptídeo Aβ1-42. Na segunda parte do trabalho, investigamos a toxicidade induzida pelo fragmento Aβ25-35 na concentração de 25 μM, nos tempos de 1, 3, 6, 12, 24 ou 48 h de exposição às culturas organotípicas, e seu efeito sobre as proteínas Akt, GSK-3β e PTEN. A morte celular foi quantificada pela incorporação do iodeto de propídeo, corante marcador excluído de células sadias, e as proteínas foram quantificadas por imunodetecção com o uso de anticorpos específicos. Nossos resultados mostraram que o peptídeo Aβ1-42 apresentou toxicidade nas concentrações de 10 e 20 μM, induzindo a uma considerável morte celular após 72 h de exposição. A análise do imunoconteúdo da proteína iNOS mostrou um aumento significativo em relação ao controle, após 72 h de exposição ao peptídeo e na concentração de 20 μM. Os resultados obtidos na segunda parte do trabalho mostraram uma morte celular significativa apenas após 48 h de exposição ao peptídeo Aβ25- 35 na concentração de 25 μM. O tratamento com peptídeo Aβ25-35 levou ao aumento no estado de fosforilação da proteína Akt após 6 h de exposição e também da proteína GSK-3β, um potencial substrato da Akt. Após 12 h de exposição ao peptídeo, observamos uma diminuição de ambas as proteínas (Akt e GSK-3β). Porém, após 24 h de exposição ao peptídeo, a proteína Akt continua menos fosforilada enquanto que a proteína GSK-3β apresenta um novo pico de fosforilação. O imunoconteúdo da proteína fosfatase PTEN apresentou um aumento significativo em 24 h e 48 h. Os resultados do presente estudo mostraram que o tratamento das culturas organotípicas de hipocampo de ratos com o peptídeo Aβ1-42 como com o fragmento Aβ25-35 apresentou toxicidade após um período de aproximadamente 48 h de tratamento, e mostrou ser um bom modelo para o estudo de sua toxicidade. Com relação ao mecanismo investigado, os dados sugerem que a proteína iNOS pode estar envolvida na toxicidade induzida pelo peptídeo Aβ1-42. Além disso, sugerem que o fragmento Aβ25-35 possa exercer sua toxicidade através da inibição da via de sobrevivência celular PI3-K, por diminuir a fosforilação/ativação da proteína Akt, parecendo envolver a proteína fosfatase PTEN, principal regulador negativo da via PI3-K/Akt.