885 resultados para Forma normal de Birkhoff (Matemática)
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Esta pesquisa realiza um estudo sobre a formação de professores em Física, Química e Matemática na dimensão das políticas públicas educacionais e das novas ordenações do mundo produtivo. O eixo metodológico investe na abordagem qualitativa, elegendo como campo empírico o Instituto de Educação, Ciência e Tecnologia do Rio de Janeiro (IFRJ), mais especificamente, o campus Nilópolis, localizado na região da Baixada Fluminense (recorte geopolítico), no Estado do Rio de Janeiro. A técnica de pesquisa baseou-se na realização de entrevistas com licenciandos cujo perfil compreende àquele que tenha realizado atividades de estágio docente. Esta escolha justifica-se por ser este o perfil de estudante mais próximo do término do curso e que, principalmente, através desta experiência, apresenta concepções, ainda que iniciais, da realidade da educação básica. Este estudo investiu na história dos sujeitos participantes através de seus respectivos relatos, onde foi possível categorizá-los em importantes aspectos que se interconectam: 1) na análise das políticas públicas para a educação superior a partir da ênfase na investigação de como estas se efetivam em uma territorialidade e no contexto de uma nova institucionalidade; 2) na reflexão sobre o impacto das transformações do mundo do trabalho na subjetividade dos licenciandos, engendrando a possível atividade docente no cenário de crise de identidades profissionais; e 3) no exame da realidade das escolas da educação básica, espaço onde a formação se destina. Este caminho permitiu refletir sobre o lugar do magistério nas escolhas de formação e nas perspectivas profissionais.
Resumo:
Ao contrário do período precedente de criação da chamada ciência moderna, o século XVIII parece não desempenhar um papel fundamental no desenvolvimento da física. Na visão de muitos autores, o século das luzes é considerado como uma fase de organização da mecânica que teve seu coroamento com as obras de Lagrange, imediatamente precedidas por Euler e dAlembert. Muitos autores afirmam que na formulação da mecânica racional houve uma eliminação gradual da metafísica e também da teologia e que o surgimento da física moderna veio acompanhado por uma rejeição da metafísica aristotélica da substância e qualidade, forma e matéria, potência e ato. O ponto central da tese é mostrar que, no século XVIII, houve uma preocupação e um grande esforço de alguns filósofos naturais que participaram da formação da mecânica, em determinar como seria possível descrever fenômenos através da matemática. De uma forma geral, a filosofia mecanicista exigia que as mudanças observadas no mundo natural fossem explicadas apenas em termos de movimento e de rearranjos das partículas da matéria, uma vez que os predecessores dos filósofos iluministas conseguiram, em parte, eliminar da filosofia natural o conceito de causas finais e a maior parte dos conceitos aristotélicos de forma e substância, por exemplo. Porém, os filósofos mecanicistas divergiam sobre as causas do movimento. O que faria um corpo se mover? Uma força externa? Uma força interna? Força nenhuma? Todas essas posições tinham seus adeptos e todas sugeriam reflexões filosóficas que ultrapassavam os limites das ciências da natureza. Mais ainda: conceitos como espaço, tempo, força, massa e inércia, por exemplo, são conceitos imprescindíveis da mecânica que representam uma realidade. Mas como a manifestação dessa realidade se torna possível? Como foram definidos esses conceitos? Embora não percebamos explicitamente uma discussão filosófica em muitos livros que versam sobre a mecânica, atitudes implícitas dessa natureza são evidentes no tratamento das questões tais como a ambição à universalidade e a aplicação da matemática. Galileu teve suas motivações e suas razões para afirmar que o livro da natureza está escrito em liguagem matemática. No entanto, embora a matemática tenha se tornado a linguagem da física, mostramos com esta tese que a segunda não se reduz à primeira. Podemos, à luz desta pesquisa, falarmos de uma mecânica racional no sentido de ser ela proposta pela razão para organizar e melhor estruturar dados observáveis obtidos através da experimentação. Porém, mostramos que essa ciência não foi, como os filósofos naturais pretendiam que assim fosse, obtidas sem hipóteses e convenções subjetivas. Por detrás de uma representação explicativa e descritiva dos fenômenos da natureza e de uma consistência interna de seus próprios conteúdos confirmados através da matemática, verificamos a presença da metafísica.
Resumo:
Câncer de esôfago (CE) é um dos tipos de câncer mais frequentes e agressivos, estando entre os dez tipos de câncer mais incidentes e letais no mundo. Entre as regiões mais incidentes do CE estão os países em desenvolvimento, como o Brasil. Apesar de recentes avanços em terapias anticâncer, menos de 10% dos pacientes acometidos por esta doença possuem uma sobrevida maior que cinco anos após seu diagnóstico e este fato é consequência do diagnóstico tardio, uma vez que os sintomas só aparecem em estádios bem avançados. Devido a este panorama há uma grande busca por métodos e, principalmente, biomarcadores de diagnóstico que possam detectar a doença em estádios iniciais e assim aumentar a sobrevida dos pacientes. A discriminação entre tumor e mucosa normal é possível ser feita endoscopicamente, porém, para detecção precoce de tumores esofágico seria importante discriminar mucosa saudável de lesão precursora, como displasia. Uma diferença típica entre tecido normal e displasia é a perda de diferenciação celular, sugerindo que proteínas de diferenciação possam ser um potencial alvo para serem usadas como biomarcadores de detecção precoce em câncer. Citoqueratinas (CKs) e esofagina (SPRR3) são importantes proteínas envolvidas na diferenciação das células no epitélio escamoso. A proteína (SPRR3) vem sendo estudada como um possível biomarcador de detecção de tumores em estádios iniciais de desenvolvimento. Em CE tem sido descrito perda da expressão de SPRR3 quando comparada com a mucosa saudável. Além disso, já foi mostrado que a análise combinada da expressão das duas variantes de SPRR3 (SPRR3-v1 e SPRR3-v2) é capaz de discriminar a mucosa esofágica de indivíduos saudáveis da mucosa adjacente e do tumor com alta sensibilidade e especificidade. Porém, uma associação significativa foi encontrada entre uma menor expressão de SPRR3-v2 e o consumo de álcool. Este dado gerou a hipótese de que o álcool pode levar a carcinogênese por estimular a proliferação e/ou perda de diferenciação do epitélio escamoso e desta forma contribuir para o surgimento do tumor. Para testar esta hipótese, foi realizado um modelo experimental utilizando camundongos BABL/c que receberam diariamente etanol em diferentes concentrações por diferentes intervalos de tempo. Foram analisados critérios de toxicidade dos animais e critérios para avaliação histopátológica no tecido esofágico. Além disso, foi analisado o perfil de expressão de proteínas envolvidas em diferenciação e proliferação celular que pudessem sugerir alterações no epitélio esofágico induzidas pelo etanol, sendo estas SPRR3, CK5/8 e CK14 e Ki67. Inflamação foi a única alteração histológica encontrada, porém ocorreu de forma aleatória, não podendo, portanto, ser associada ao etanol. Alteração no padrão de expressão das proteínas analisadas foi encontrada em regiões inflamadas. Porém, a maioria das amostras não apresentou alterações histopatológicas, nem tampouco alteração de expressão das proteínas, sugerindo que em epitélio esofágico de camundongos BALB/c o etanol não é capaz de induzir isoladamente alteração na proliferação e perda de diferenciação celular.
Resumo:
A doença hepática gordurosa não alcoólica (DHGNA) tornou-se a hepatopatia crônica mais comum no mundo, afetando principalmente alguns grupos de pacientes, como os diabéticos tipo II. A biópsia hepática permanece como método padrão ouro para o seu diagnóstico. A prevalência da DHGNA e seus subtipos, em especial a esteatohepatite (EH), pode estar subestimada por métodos não invasivos de diagnóstico ou superestimada pela realização da biópsia em pacientes selecionados por alterações na ultrassonografia (US) ou nas aminotransferases. Os objetivos deste estudo foram: determinar a prevalência da DHGNA (esteatose, EH e cirrose) em uma amostra de pacientes diabéticos tipo II, com base na biópsia hepática; quantificar a esteatose, inflamação e fibrose quando presentes; identificar fatores preditivos de DHGNA, EH e fibrose significativa (≥ estágio 2) e avaliar o valor das aminotransferases e da US de abdome para o diagnóstico de EH e fibrose significativa. Todos os diabéticos tipo II, entre 18 e 70 anos, consecutivamente atendidos no ambulatório de Diabetes do Hospital Universitário Pedro Ernesto, eram candidatos a participar do estudo. Foram excluídos pacientes com sorologias positivas para hepatite B ou C, outras doenças hepáticas crônicas, uso de drogas hepatotóxicas ou esteatogênicas, etilismo (≥20g/dia), obesidade grau III, comorbidades graves, gravidez ou por recusa em participar do estudo. Dos 396 pacientes triados com critérios de inclusão, 85 foram incluídos. Todos os pacientes foram submetidos à avaliação clínica, exames laboratoriais, US de abdome e biópsia hepática. As lâminas foram analisadas por dois patologistas independentes e a DHGNA foi graduada pelo NASH Clinical Research Network Scoring System. A concordância entre os patologistas foi medida pelo coeficiente Kappa (k) e foi realizada análise multivariada por regressão logística para avaliação dos fatores associados de forma independente à DHGNA, EH e fibrose significativa. A prevalência de DHGNA na amostra foi de 92%, sendo 50% esteatose simples, 40% EH e 2% cirrose. A concordância (k) entre os patologistas foi 0,78. A esteatose foi leve na maior parte dos pacientes com esteatose simples e predominantemente acentuada nos pacientes com EH (p<0,001). A fibrose foi verificada em 76% dos pacientes com EH, sendo significativa em 41% deles. A presença de síndrome metabólica foi associada de forma independente à DHGNA, o índice de massa corporal e a circunferência abdominal aumentada à EH e a dosagem de alanina aminotransferase (ALT) à EH e à fibrose significativa. Apenas um de 21 pacientes (5%) com US e ALT normais apresentou EH. A prevalência da EH aumentou progressivamente com o aumento do grau de esteatose na US e com o aumento da ALT. Conclusão: A prevalência da DHGNA estimada pela biópsia hepática sem vieses de seleção foi muito elevada. Apesar de alto, o percentual de EH e fibrose significativa foi inferior ao dos estudos com biópsias em diabéticos selecionados por alterações na US e aminotransferases. EH foi associada a esteatose acentuada na histologia. A obesidade foi um cofator importante no diagnóstico de EH. O melhor desempenho da ALT e da US foi o de excluir as formas graves de DHGNA quando normais.
Resumo:
O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.
Resumo:
Pré-eclâmpsia (PE), uma síndrome sistêmica da gestação caracterizada por proteinúria e hipertensão, está associada a uma significativa mortalidade tanto materna quanto fetal. Eentretanto, sua fisiopatologia ainda não é totalmente compreendida. Apesar de um expressivo aumento da atividade do sistema renina-angiotensina (SRA) na gestação normal, a pressão arterial não aumenta. Além disso, a redução da pressão de perfusão intra-uterina promove um aumento na liberação de espécies reativas de oxigênio que podem contribuir para a hipertensão na gestação. Dessa forma, o objetivo deste trabalho foi estudar o papel do SRA vascular, assim como, do estresse oxidativo plasmático, cardiorenal e placentário para a regulação cardiovascular materna em ratas normotensas e em modelo de PE induzida por L-NAME. Foi observado um aumento da pessão arterial em animais que receberal L-NAME. As ratas grávidas + L-NAME apresentaram um menor ganho de massa corporal durante a gestação, menor múmero de filhotes vivos, maior número de abortos, menor massa placentária total e fetos com menor massa corporal. Foi observada uma redução na resposta vasodilatadora induzida por acetilcolina (ACh) e angiotensina (Ang) II, aumento na resposta vasodilatadora induzida por nitroglicerina (NG) e aumento na resposta vasoconstritora induzida por fenilefrina (Phe) e Ang II em LAM de ratas grávida e não grávidas que receberam L-NAME. Não foi observada diferença na expressão dos receptores AT1 e AT2 e das enzimas ECA, ECA2 e eNOS. Foi observado um aumento na concentração plasmática de renina e bradicinina (BK) em ratas grávidas + L-NAME e uma redução na concentração de Ang 1-7. As ratas grávidas e grávidas + L-NAME apresentaram um aumento nos níveis séricos de estradiol. Os níveis de malondialdeído e carbonilação de proteínas estava aumentados e a atividade das enzimas antioxidantes SOD e GPx estavam reduzidas em ratas grávidas e não grávidas que receberam L-NAME. A atividade da CAT não apresentou diferença entre os grupos. Em conclusão, uma redução na vasodilatação induzida pela Ang II associada a um aumento da vasoconstrição promovida por este peptídeo, sugerem uma contribuição do SRA no desenvolvimento das complicações características da PE observadas no modelo experimental de PE induzido por L-NAME. Do mesmo modo, a peroxidação lipídica e oxidação de proteínas aumentadas, assim como, as atividades enzimáticas antioxidantes reduzidas sugerem a contribuição de uma defesa antioxidante comprometida e um dano oxidativo aumentado para o desenvolvimento da hipertensão e disfunção endotelial, aumento da mortalidade fetal e retardo do crescimento intra-uterino observados no modelo de PE estudado.
Resumo:
O objetivo do trabalho é investigar as teses conceituais contemporâneas sobre o normal e o patológico em medicina. Após a célebre tese de Georges Canguilhem sobre o tema e sobretudo a partir da década de 1970, a filosofia da medicina anglo-saxônica ofereceu importantes contribuições para o debate. Analisamos principalmente as teses de Christopher Boorse e Lennart Nordenfelt, autores que compartilham com Canguilhem a convicção de que a análise filosófica pode contribuir para o esclarecimento dos conceitos médicos. O primeiro é apontado na literatura como naturalista e o segundo como normativista, polarização apresentada na literatura anglo-saxônica contemporânea que reflete o debate sobre a descrição da saúde e da doença como fenômenos naturais ou como estados determinados por valores antropomórficos. Vemos que, para distinguir o normal do patológico, os autores contemporâneos naturalistas fazem uso dos critérios de função biológica e tipo biológico e os autores normativistas falam em função social e tipos ideais. Problematizamos estes conceitos usando o referencial da filosofia da biologia e dos estudos da deficiência, respectivamente, e notamos que as definições propostas pelos filósofos da medicina merecem ser refinadas.
Resumo:
O objetivo deste trabalho foi desenvolver um estudo morfológico quantitativo e qualitativo da região da sínfise mandibular (SM), através da construção de modelos tridimensionais (3D) e avaliar o seu grau de associação com diferentes classificações de padrões faciais. Foram avaliados 61 crânios secos humanos de adultos jovens com oclusão normal, com idade entre 18 e 45 anos e dentadura completa. Tomografias computadorizadas de feixe cônico (TCFC) de todos os crânios foram obtidas de forma padronizada. O padrão facial foi determinado por método antropométrico e cefalométrico. Utilizando o critério antropométrico, tomando como referência o índice facial (IF), o padrão facial foi classificado em: euriprósopo (≤84,9), mesoprósopo (85,0 - 89,9) e leptoprósopo (≥90,0). Pelo critério cefalométrico, o plano mandibular (FMA) determinou o padrão facial em curto (≤21,0), médio (21,1 - 29,0) e longo (≥29,1); e o índice de altura facial (IAF) classificou a face em hipodivergente (≥0,750), normal (0,749 - 0,650) e hiperdivergente (≤0,649). A construção de modelos 3D, representativos da região da SM, foi realizada com o auxílio do software ITK-SNAP. Os dentes presentes nesta região, incisivos, caninos e pré-molares inferiores, foram separados do modelo por técnica de segmentação semi-automática, seguida de refinamento manual. Em seguida, foram obtidos modelos 3D somente com o tecido ósseo, possibilitando a mensuraçãodo volume ósseo em mm3 (VOL) e da densidade radiográfica, pela média de intensidade dos voxels (Mvox). No programa Geomagic Studio 10 foi feita uma superposição anatômica dos modelos 3D em bestfit para estabelecer um plano de corte padronizado na linha média. Para cada sínfise foi medida a altura (Alt), a largura (Larg) e calculado o índice de proporção entre altura e largura (PAL). A avaliação da presença de defeitos alveolares foi feita diretamente na mandíbula,obtendo-se a média de todas as alturas ósseas alveolares (AltOss) e a média da dimensão das deiscências presentes (Medef). O índice de correlação intra-classe (ICC) com valores entre 0,923 a 0,994,indicou alta reprodutibilidade e confiabilidade das variáveis medidas. As diferenças entre os grupos, determinados pelas classificações do padrão facial (IF, FMA e IAF), foram avaliadas através da análise de variância (oneway ANOVA) seguida do teste post-hoc de Tukey. O grau de associação entre o padrão facial e as variáveis Vol, Mvox, PAL, Alt, Larg, AltOss e Medef foi avaliado pelo coeficiente de correlação de Pearson com um teste t para r. Os resultados indicaram ausência de diferença ou associação entre o volume, densidade radiográfica e presença de defeitos alveolares da SM e o padrão facial quando determinado pelo IF, FMA e IAF. Verificou-se tendência de SM mais longas nos indivíduos com face alongada, porém a largura não mostrou associação com o padrão facial. Estes resultados sugerem que as classificações utilizadas para determinar o padrão facial não representam satisfatoriamente o caráter 3D da face humana e não estão associadas com a morfologia da SM.
Resumo:
A doença meningocócica (DM) é, ainda hoje, um sério problema de saúde pública, estando associada a elevadas taxas de morbidade e letalidade no mundo. A DM evoca proteção imunológica persistente contra a doença em pessoas com sistema imunológico normal. Em contraste, a proteção induzida por vacinas meningocócicas sempre requer a administração de doses reforço (booster) da vacina. No Brasil, Neisseria meningitidis dos sorogrupos C (MenC) e B (MenB) são as principais causas de DM durante os últimos anos. Atualmente, não existe uma vacina universal contra o meningococo B (MenB). A infecção pelo vírus da imunodeficiência humana (HIV) tem sido apontada como um fator de risco para a mortalidade da DM. Um dos pilares do tratamento do HIV é a utilização de vacinas para doenças imuno-preveníveis. A vacina conjugada anti-MenC é frequentemente recomendada para crianças e adolescentes infectados pelo HIV no Brasil e em muitos outros países. Poucos estudos têm abordado os mecanismos pelos quais as vacinas meningocócicas geram e sustentam a memória imunológica. Os objetivos deste estudo foram: 1) avaliar a resposta de anticorpos bactericidas e de linfócito T (LT) CD4 de memória contra o meningococo após a infecção; 2) avaliar a resposta de anticorpos bactericidas e de LT CD4 de memória e linfócito B de memória (LBm) contra o meningococo após o booster da vacina cubana VA-MENGOC-BC em voluntários imunizados há aproximadamente 17 anos; 3) investigar a resposta de anticorpos funcionais (bactericidas e opsonizantes) após imunização com a vacina conjugada anti-MenC (CRM197) em indivíduos infectados pelo vírus HIV. Após a infecção, 83% dos pacientes diagnosticados como tendo DM pelo teste de látex e/ou cultura tiveram títulos de anticorpos bactericidas protetores, mas não houve uma associação entre os títulos de anticorpos bactericidas e a concentração de imunoglobulina total específica. Houve aumento na frequência de linfócitos T de memória central (TCM) (mediana de 15%) ativados, principalmente após estímulo com a cepa MenC. Nos voluntários pré-vacinados, 3 de 5 indivíduos soroconverteram 7 ou 14 dias após a administração da dose booster. Houve um aumento importante da população TCM 14 dias após o booster, mas sem ativação celular diferenciada dos grupos controles. Observamos resposta positiva de LBm na maioria dos voluntários, mas sem correlação com os anticorpos bactericidas. Em relação aos pacientes HIV positivos, os resultados mostraram a necessidade de uma segunda dose da vacina, já que apenas 15% soroconverteram a uma única dose e a segunda dose resultou em soroconversão de cerca de 55% dos indivíduos. Observamos correlação positiva (r= 0,43) e significativa (P= 0,0007) entre os anticorpos opsonizantes e bactericidas após a vacinação. Não observamos diferenças significativas quando relacionamos os títulos de anticorpos bactericidas com o número absoluto de LT CD4 P= 0,051) e LT CD4 nadir (P= 0,09) entre os pacientes que soroconverteram (n= 43) ou não soroconverteram (n= 106) após a primeira dose. Desta forma, os resultados desta tese indicaram que: 1) os pacientes convalescentes da DM adquirem anticorpos bactericidas após infecção por N. meningitidis; 2) nos voluntários vacinados, a dose booster da vacina anti-MenB não foi plenamente eficaz em ativar a memória imunológica através da produção de anticorpos bactericidas ou ativação de LTm; 3) os pacientes HIV positivos necessitam de uma dose booster da vacina conjugada anti-MenC.
Resumo:
O diagnóstico da hanseníase neural pura baseia-se em dados clínicos e laboratoriais do paciente, incluindo a histopatologia de espécimes de biópsia de nervo e detecção de DNA de Mycobacterium leprae (M. leprae) pelo PCR. Como o exame histopatológico e a técnica PCR podem não ser suficientes para confirmar o diagnóstico, a imunomarcação de lipoarabinomanana (LAM) e/ou Glicolipídio fenólico 1 (PGL1) - componentes de parede celular de M. leprae foi utilizada na primeira etapa deste estudo, na tentativa de detectar qualquer presença vestigial do M. leprae em amostras de nervo sem bacilos. Além disso, sabe-se que a lesão do nervo na hanseníase pode diretamente ser induzida pelo M. leprae nos estágios iniciais da infecção, no entanto, os mecanismos imunomediados adicionam severidade ao comprometimento da função neural em períodos sintomáticos da doença. Este estudo investigou também a expressão imuno-histoquímica de marcadores envolvidos nos mecanismos de patogenicidade do dano ao nervo na hanseníase. Os imunomarcadores selecionados foram: quimiocinas CXCL10, CCL2, CD3, CD4, CD8, CD45RA, CD45RO, CD68, HLA-DR, e metaloproteinases 2 e 9. O estudo foi desenvolvido em espécimes de biópsias congeladas de nervo coletados de pacientes com HNP (n=23 / 6 BAAR+ e 17 BAAR - PCR +) e pacientes diagnosticados com outras neuropatias (n=5) utilizados como controle. Todas as amostras foram criosseccionadas e submetidas à imunoperoxidase. Os resultados iniciais demonstraram que as 6 amostras de nervos BAAR+ são LAM+/PGL1+. Já entre as 17 amostras de nervos BAAR-, 8 são LAM+ e/ou PGL1+. Nas 17 amostras de nervos BAAR-PCR+, apenas 7 tiveram resultados LAM+ e/ou PGL1+. A detecção de imunorreatividade para LAM e PGL1 nas amostras de nervo do grupo HNP contribuiu para a maior eficiência diagnóstica na ausência recursos a diagnósticos moleculares. Os resultados da segunda parte deste estudo mostraram que foram encontradas imunoreatividade para CXCL10, CCL2, MMP2 e MMP9 nos nervos da hanseníase, mas não em amostras de nervos com outras neuropatias. Além disso, essa imunomarcação foi encontrada predominantemente em células de Schwann e em macrófagos da população celular inflamatória nos nervos HNP. Os outros marcadores de ativação imunológica foram encontrados em leucócitos (linfócitos T e macrófagos) do infiltrado inflamatório encontrados nos nervos. A expressão de todos os marcadores, exceto CXCL10, apresentou associação com a fibrose, no entanto, apenas a CCL2, independentemente dos outros imunomarcadores, estava associada a esse excessivo depósito de matriz extracelular. Nenhuma diferença na frequência da imunomarcação foi detectada entre os subgrupos BAAR+ e BAAR-, exceção feita apenas às células CD68+ e HLA-DR+, que apresentaram discreta diferença entre os grupos BAAR + e BAAR- com granuloma epitelioide. A expressão de MMP9 associada com fibrose é consistente com os resultados anteriores do grupo de pesquisa. Estes resultados indicam que as quimiocinas CCL2 e CXCL10 não são determinantes para o estabelecimento das lesões com ou sem bacilos nos em nervo em estágios avançados da doença, entretanto, a CCL2 está associada com o recrutamento de macrófagos e com o desenvolvimento da fibrose do nervo na lesão neural da hanseníase.