998 resultados para Sinal de Godet
Resumo:
The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.
Resumo:
A incerteza é o principal elemento do futuro. Desde os primórdios, o homem busca métodos para estruturar essas incertezas futuras e assim poder guiar suas ações. Apenas a partir da segunda metade do século XX, porém, quando os métodos projetivos e preditivos já não eram mais capazes de explicar o futuro em um ambiente mundial cada vez mais interligado e turbulento, é que nasceram os primeiros métodos estruturados de construção de cenários. Esses métodos prospectivos visam lançar a luz sobre o futuro não para projetar um futuro único e certo, mas para visualizar uma gama de futuros possíveis e coerentes. Esse trabalho tem como objetivo propor uma nova abordagem à construção de cenários, integrando o Método de Impactos Cruzados à Análise Morfológica, utilizando o conceito de Rede Bayesianas, de fonna a reduzir a complexidade da análise sem perda de robustez. Este trabalho fará uma breve introdução histórica dos estudos do futuro, abordará os conceitos e definições de cenários e apresentará os métodos mais utilizados. Como a abordagem proposta pretende-se racionalista, será dado foco no Método de Cenários de Michel Godet e suas ferramentas mais utilizadas. Em seguida, serão apresentados os conceitos de Teoria dos Grafos, Causalidade e Redes Bayesianas. A proposta é apresentada em três etapas: 1) construção da estrutura do modelo através da Análise Estrutural, propondo a redução de um modelo inicialmente cíclico para um modelo acíclico direto; 2) utilização da Matriz de Impactos Cruzados como ferramenta de alimentação, preparação e organização dos dados de probabilidades; 3) utilização da Rede Bayesiana resultante da primeira etapa como subespaço de análise de uma Matriz Morfológica. Por último, um teste empírico é realizado para comprovar a proposta de redução do modelo cíclico em um modelo acíclico.
Resumo:
D. Hoffman, R. Osserman e R. Schoen mostraram que se a aplicação de Gauss de uma superfície orientada completa de curvatura média constante M imersa em R³ está contida em um hemisfério fechado de S² (equivalentemente, a função
Resumo:
Tendo por base o trabalho realizado por Hyde e Sherif (2010) com dados do mercado inglês, foi desenvolvido estudo com o objetivo de avaliar a capacidade do spread de curto e longo prazo da taxa de juros de funcionar como indicador do crescimento futuro do consumo no Brasil. Tanto Hyde e Sherif (2010) como outros estudos realizados em países desenvolvidos indicaram relação positiva entre o spread de juros de curto e longo prazo e o crescimento do consumo. Entretanto, as análises empíricas realizadas neste estudo para o caso brasileiro, apresentaram resultados divergentes do esperado pela teoria, indicando relação negativa entre o spread de juros e o crescimento do consumo. Em algumas análises, os estudos não indicaram relação entre as variáveis. Foram discutidas possíveis razões para estes resultados contraintuitivos, tais como tamanho reduzido da amostra, nível da taxa de juros no Brasil e liquidez do mercado futuro de juros. Adicionalmente foram analisados os modelos teóricos C-CAPM (Consumption-based asset pricing model) e o modelo de consumo habitual desenvolvido por Campbell e Cochrane (1999) com a adaptação proposta por Wachter (2006). Os resultados encontrados no modelo C-CAPM divergiram do esperado, já que a estimativa do coeficiente relativo de aversão ao risco apresentou sinal negativo. Por outro lado, os resultados obtidos no modelo de Wachter (2006) ficaram em linha com o esperado na teoria, tanto em relação à significância dos parâmetros como aos respectivos sinais e magnitudes.
Resumo:
A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.
Resumo:
Após o surgimento e a expansão exponencial, a internet evoluiu para uma tecnologia que extrapolou os contornos acadêmicos em que foi criada, desenvolvendo diversas e simultâneas vocações, entre elas, fonte de educação e lazer, armazenamento de informações, rede de computadores, meio de comunicação individual e veículo de mídia de massa. É esta vocação, de veículo de mídia, que provocou o interesse pela pesquisa objeto desta dissertação. A entrada da internet no ambiente de mídia tem renovado o interesse na questão do consumo de mídia. Particularmente, a crescente popularidade como novo meio de comunicação resultou em mudanças nos usos dos meios tradicionais, como teorizado na Teoria do Nicho aplicada à indústria de mídia. O declínio da audiência das grandes redes de TV aberta mostra como o setor vem reagindo à concorrência de novos canais, à emergência de novas plataformas de acesso à programação televisiva e à mudança nos hábitos de consumo de mídia. Esta investigação faz uma revisão da literatura e compara o panorama internacional e especialmente a situação do Brasil, onde as principais emissoras de sinal aberto tentam resistir ao processo de fragmentação do público que se registra mundialmente. Para melhor compreender o que significam tais mudanças, é primordial entender quais as variáveis relevantes no universo dos veículos de mídia. A principal delas é a audiência, que representa o número de pessoas que acessam, veem, leem, ouvem ou consomem determinado meio de comunicação em determinado espaço de tempo. O objetivo deste estudo foi desenvolver um modelo preditivo sobre o tempo despendido pelas pessoas na internet, a partir de informações sociodemográficas e do comportamento dessas pessoas enquanto audiência dos meios de comunicação tradicionais, particularmente a televisão. Como os dados secundários analisados apresentam respostas em categorias ordinais, foi escolhido a regressão logística ordinal como o modelo de probabilidades para realizar esse estudo.
Resumo:
Este trabalho estuda a formação dos Bookbuildings em emissões de ações no Brasil, também conhecidos como “Livro de Ofertas”, o último e mais importante estágio de um processo de IPO. Testam-se hipóteses de assimetria de informação, monitoramento e liquidez e conflito de interesse para o caso brasileiro em um conjunto de 18 emissões, todas oriundas de IPO’s emitidos no mercado de capitais brasileiro, sob a ótica das 5 variáveis mais significativas: Tipo de Investidor – curto e longo-prazo; Nacionalidade – Investidores dos Estados Unidos e locais; Participações em ofertas; Tamanho das ofertas; e Preço das emissões. O nosso banco de dados analisa todas as 209 operações de listagem primária e secundária dos últimos 7 anos, desde 2004, na Bovespa. São 209 ofertas públicas. Aprofundamo-nos em 18 delas, das quais possuímos todas as informações de formação de livro de ofertas. Demonstrou-se que em todas essas 18 ofertas o volume de ofertas feitas por investidores estrangeiros de fato “ancorou” as operações (representando mais do que 67% das ordens dos livros), fato que teve uma função muito importante, de “sinalizar” a força das determinadas ofertas em termos de demanda. Das 18 operações, o livro de ofertas de 39% excedeu mais do que 3 vezes a quantidade ofertada pela empresa issuer ao mercado. Em 56% dos casos, a demanda foi maior do que o dobro do número de ações oferecidas pelo issuer. Em 72% dos casos, a demanda excedeu a oferta em pelo menos 50%. A média de demanda das 2.229 ofertas de compra, divididas nos 18 IPO’s estudados, foi de quase 4 vezes o número de ações ofertadas, ou 394%, conforme tabela 11 deste trabalho. Os resultados obtidos seguem na direção das teorias de preferência por investidores de longo prazo em detrimento de investidores de curto prazo. Encontramos que o preço e a participação em diversos IPO’s não são determinantes para explicar as diferenças nas alocações, distanciando nossos resultados das teorias de assimetria de informação. Já as variáveis que exprimem características dos investidores mostraram-se bastante relevantes para explicar as diferenças nas alocações. Primeiramente, o tipo de investidor mostrou-se uma variável decisiva na alocação. Nas hipóteses testadas, encontramos evidências de que investidores de longo prazo, os chamados Long-Only são beneficiados enquanto investidores de curto prazo, em geral hedge-funds e tesourarias, são penalizados nas alocações. Segundo, a nacionalidade do investidor também exprime papel fundamental na alocação. Investidores norte-americanos são beneficiados enquanto investidores brasileiros são penalizados, outro resultado contrário às teorias de troca de alocação por informação, dado que investidores domésticos, em teoria, deveriam ter maior informação do que estrangeiros. Em realidade, se existe um consenso nesse campo de pesquisa é o de que investidores norte-americanos determinam a direção da grande maioria dos recursos destinados a esse mercado e emitem forte sinalização quando “entram” em negócios dessa natureza ao redor do mundo, o mesmo ocorrendo no caso brasileiro e demonstrado em nossa análise, conforme acima mencionado. Os resultados apenas comprovam que esse tipo de ação de tais investidores tem sido premiado por meio de favorecimento em alocações nas ofertas no mercado brasileiro, principalmente quando controlamos para emissões com alta demanda, os chamados Hot IPO’s. Também encontramos evidências contrárias às teorias de controle. Ao regredir nossa variável Tamanho, encontramos um sinal contrário ao esperado. Isto é, para os dados que dispúnhamos, verificamos o favorecimento de grandes ofertas em detrimento de pequenas, enquanto esperaríamos que os underwriters evitassem concentração de ações, “protegendo” as empresas emissoras de eventuais problemas de liquidez e até potenciais tentativas de hostile take-overs no futuro.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
Este trabalho tem por objetivo analisar se a capacidade de resposta de política econômica foi fator relevante para minimizar a severidade da crise financeira de 2008, no primeiro ano do episódio. A hipótese da pesquisa é que países com um maior espaço para políticas expansionistas – maiores taxas de juros maiores e melhores resultados do governo central – tenham registrado uma crise menos severa, tudo mais constante. Os resultados econométricos corroboram com a hipótese em relação à política monetária. No que diz respeito à política fiscal, o sinal dos parâmetros encontrado é oposto ao esperado, sinalizando que, possivelmente, mesmo países com bons resultados fiscais possam ter limitações a estímulos keynesianos em função da tolerância ao seu nível de endividamento. Entretanto, a interação entre o resultado do governo central e o endividamento está em linha com a hipótese da pesquisa, uma vez que uma melhor gestão tanto do fluxo fiscal, quanto do estoque da dívida no ano anterior ao evento mostrou-se relevante. A adição da variável de investment grade às especificações ressaltou uma crise mais severa nas economias desenvolvidas.
Resumo:
O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.
Resumo:
Esta tese apresenta o estudo da população estelar nuclear e extranuclear de uma amostra de galáxias ativas próximas (trinta e sete galáxias Seyfert 2 e vinte e quatro rádio-galáxias); e de uma amostra de controle de galáxias não ativas (onze elípticas: sete lenticulares e dezoito espirais). Foram para isto utilizados espectros óticos de fenda longa com boa razão sinal-ruído obtidos em telescôpios com aberturas de 1;5m a 4m. As regiões amostradas nas extrações correspomlem nas galáxias a 100-2000 parsecs (pc), com um valor mediano de 800 pc. A fim de verificar se existe relação entre a presença de formação estelar recente e a atividade nuclear; foram determinadas as idades das populações estelares da região nuclear e circumnuclear destas galáxias; utilizando o método de síntese espectral. Também foi verificada a infiuência do núcleo ativo sobre a população circunmclear; através do estudo da diluição das larguras equivalentes nucleares em relação àquelas de fora do núcleo. Um dos aspectos mais relevantes do presente estudo é a inclusão de uma amostra de controle de galáxias não ativas em um nÚmero comparável ao de galáxias ativas. O estudo conjunto de uma amostra de controle serviu para quantificar as diferenças obtidas dos espectros - em particular no contínuo e na população estelar das galáxias devido a existência da atividade nuclear. Os principais resultados são os que seguem: Uma grande fração de galáxias Seyfert 2 apresenta formação estelar recente (com idades iguais ou inferiores a 100 milhões de anos), tanto no núcleo quanto fora dele. Por outro lado, as rádio-galáxias em geral são dominadas por populações velhas e de idade intermediária (10 e 1 bilhão de anos); as populações jovens são significativas em apenas 10% destes objetos Em vários aspectos, galáxias Seyfert 2 e rádio-galáxias apresentam características diferentes. As primeiras apresentam resultados da síntese bem mais diversificados do que as últimas; tanto em termos de contribuição das populações de diferentes idades, quanto em relação ao comportamento dos gradientes de população estelar e dos avermelhamentos internos das galáxias. As galáxias Seyfert 2 apresentam uma diversidade de populações bastallte grande; e em geral essas populações são muito diferentes daquelas encontradas em galáxias não ativas lenticulares e espirais. Apesar das rádio-galáxias apresentarem uma pequena diversidade de populações estelares e, aparentemente, populações semelhantes àquelas encontradas em galáxias não ativas elípticas e lenticulares, elas têm populações levemente mais jovens do que as encontradas nas galáxias não ativas, sob a forma de uma contribuição maior da população de 1 bilhão de anos. Nenhuma rádio-galáxia Fanaroff-Riley tipo I apresenta contribuição significativa de populações mais jovem; do que 1 bilhão de anos: enquanto que em uma ou duas rádio-galáxias FRI isso ocorre. Esse resultàdo sugere que existe uma pequena diferença entre a população estelar das rádio-galáxias FRI e FGII estudadas. Essa diferença precisa ser melhor estudada, através de uma amostra de rádio-galáxias maior, para se verificar se não é originada apenas pelo pequeno número de objetos analisados em cada grupo Para as galáxias Seyfert 2, os resultados encontrados são consistentes com um cenário evolutivo 1 onde uma interação provocaria a queda do gás na direção do núcleo provocando um ou mais episódios de formação estelar e iniciando também a atividade nuclear. Enquanto a formação estelar é dominante, as assinaturas da interação são ainda visíveis e o espectro apresenta as características de uma população jovem e linhas de emissão intemediárias entre aquelas de galáxias Seyfert 2 e de galáxias "Starlmrst". A partir do momento em que o episóidio de formação estelar se enfraquece, o espectro passa a ser dominado por características de uma população mais velha e com linhas de emissão típicas de uma galáxia Seyfert. Dentro do cenário acima, a diversidade de populações encontrada pode então ser explicada como sendo devida a diferentes estágios evolutivos da interação; além disso: um outro fator importante parece ser a quantidade de gás disponível; se esta quantidade for muito pequena, pode não ocorrer o disparo de formação estelar. No caso das rádio-galáxias, as interações que teriam originado a atividade nuclear parecem ter ocorrido há mais tempo (1 bilhão de anos atrás para a maioria dos objetos estudados), sugerindo um maior intervalo de tempo entre a interação e o disparo da atividade rádio do que entre a interação e a atividade Seyfert.
Resumo:
O crescente aprimoramento tecnológico ocorrido nos últimos anos principalmente nas áreas de eletrônica analógica e digital, proporcionou um grande desenvolvimento dos equipamentos destinados à captação, registro e reprodução sonora - componentes dos sistemas de áudio – tornando-os muito mais sofisticados e complexos. Por sua vez, estes sistemas de áudio encontram-se cada vez mais presentes em diversos tipos de ambientes tais como teatros, casa de shows e auditórios, cumprindo um papel fundamental na programação do recinto. Entretanto, o projeto acústico destes ambientes, em sua grande maioria, não tem levado em consideração as características do sistema de áudio a ser instalado, resultando em prejuízo do desempenho acústico do ambiente e conseqüente insatisfação dos usuários. Somado a este fato, tem-se dado pouca atenção aos parâmetros de qualidade acústica de ambientes destinados à reprodução musical, inicialmente desenvolvidas por Beraneck, 1962, abrindo-se mão, portanto, de ótimas ferramentas de análise que poderiam servir para melhorar o desempenho acústico destes ambientes. Como conseqüência destes resultados, vem crescendo a idéia entre os profissionais da área de acústica e de áudio que o ideal é otimizar o sistema de som com o ambiente para que os melhores resultados sejam alcançados É neste cenário que o presente trabalho se propõe a discutir as questões acústicas juntamente com as questões de áudio com o objetivo de apresentar os principais conce itos, técnicas e procedimentos referentes ao projeto e análise da acústica de ambientes e de sistemas de áudio. Para tanto, foi realizada uma revisão bibliográfica que apresenta os parâmetros objetivos de qualidade acústica ambiental juntamente com um método de avaliação da qualidade acústica de salas, proposta por Arau, 1999. Também apresenta os principais conceitos que norteiam o projeto de sistemas de áudio, mostrando os principais equipamentos envolvidos e suas características técnicas. Ainda foi realizado um estudo sobre as diversas técnicas de medição de resposta impulsiva com as quais os sistemas, tanto acústico quanto de áudio, podem ser caracterizados chegando a conclusão que a técnica de varredura logarítmica de seno é aquela que mais se adapta às medições acústicas por apresentar melhor relação sinal/ruído e imunidade à distorções inerentes aos transdutores eletromecânicos utilizados nestes tipo de medição Para concretizar os conceitos apresentados no trabalho é realizada uma análise do sistema som-ambiente do Salão de Atos da Universidade Federal do Rio Grande do Sul (UFRGS). Como resultado desta análise conclui-se que a amplificação eletrônica, apesar de ser adequada para atender às necessidades da aplicação, tem sua capacidade limitada pelas caixas acústicas. Estas por sua vez, em conjunto com as características do ambiente, são capazes de proporcionar boa inteligibilidade de voz na área de cobertura.Também conclui-se que o ambiente de Salão de Atos possui absorção excessiva em médias-altas freqüências e baixa audibilidade nas posições mais distantes do palco. Ainda, é mostrado que, devido ao posicionamento das caixas acústicas no palco, existem regiões na área da platéia que são atingidas pelo efeito de eco.
Resumo:
Este trabalho se propõe a estudar uma das características que sempre faz parte da natureza de qualquer Universidade: sua autonomia. Esta prerrogativa não apenas tem sido reconhecida como necessária para a atuação de uma Universidade na história de cada sociedade, como também é considerada o sinal mais preciso da presença da "idéia" de Universidade em uma Instituição de Ensino Superior.
Resumo:
A leucoplasia se caracteriza por apresentar, microscopicamente, hiperceratose, acantose ou displasia epitelial. O objetivo do presente trabalho foi avaliar a velocidade de proliferação celular destes distúrbios de maturação epitelial por meio da Técnica de AgNOR. A amostra foi constituída de 50 blocos de parafina distribuídos em 5 grupos de acordo com seu diagnóstico histopatológico em hiperceratose, hiperceratose com acantose, acantose, displasia epitelial e epitélio normal. Para cada grupo foram avaliadas as células da camada basal e suprabasal e a quantificação das AgNORs foi realizada através da média dos pontos de AgNOR por núcleo, da área média dos pontos de AgNOR por núcleo e do percentual médio de células com 1, 2, 3 e 4 ou mais pontos de AgNOR por núcleo. Verificou-se que a média de pontos de AgNOR por núcleo aumentou gradualmente do epitélio normal, hiperceratose com acantose, hiperceratose, acantose até a displasia epitelial. Na comparação em relação à área média dos pontos de AgNOR por núcleo observou-se diferença significativa entre o epitélio normal e os demais grupos. Verificou-se ainda que em todos os grupos há o predomínio de células com 1 AgNOR, e o epitélio normal apresentou valor superior No entanto, a displasia epitelial apresentou maior percentual de células com 4 ou mais AgNORs por núcleo, demonstrando o maior potencial de transformação maligna, uma vez que este parâmetro pode representar um sinal de malignidade. Todavia, os três métodos de quantificação não foram capazes de distinguir os distúrbios de maturação epitelial entre si. A partir dos resultados encontrados, pode-se concluir que os distúrbios de maturação epitelial estudados apresentam ritmo de proliferação celular semelhante e que, dentre eles, a acantose e displasia epitelial têm comportamento de maior risco. Portanto, uma leucoplasia que apresente qualquer um dos distúrbios de maturação epitelial no diagnóstico histopatológico, a conduta clínica deve ser semelhante.
Resumo:
O poli (ácido L-láctico) (PLLA) é um material de grande interesse na área científica, por ser um polímero biodegradável e bioabsorvível, e pela sua grande utilização na área biomédica. Este estudo teve como objetivo a síntese de PLA através de policondensação direta e em meio supercrítico (scCO2) e sua caracterização. As duas rotas buscam um processo limpo de síntese dos polímeros, livre de solvente orgânico. Além disso, procurou-se reduzir os custos de obtenção utilizando matéria-prima nacional (ácido láctico P.A. comercial). As reações de polimerização de PLLA realizada por policondensação e em scCO2 foram feitas em dois estágios. No primeiro estágio da síntese, para ambos os processos, o pré-polímero do ácido láctico foi obtido através de uma reação simples de condensação, com retirada de água, sob atmosfera inerte de N2 e 160ºC. Na segunda etapa, para a reação de policondensação, o polímero PLLA, foi obtido a partir do pré-polímero em uma temperatura de 140ºC e sob pressão reduzida por o tempo desejado (100h, 200h e 350h). As reações em meio scCO2 foram realizadas em um reator de aço inoxidável de 100 mL equipado com uma barra de agitação magnética, sob pressão de CO2 (80atm) e a 90ºC por 4 horas. Em ambas as reações de polimerização foram usadas complexos de estanho como catalisador. No início deste trabalho foram realizadas algumas reações utilizando o D, L-ácido láctico em scCO2. Também foi realizada a síntese do lactide e a polimerização deste por abertura de anel. Para efeito comparativo, também foi realizada a polimerização do lactide comercial. Os polímeros obtidos foram caracterizados por espectroscopia de Ressonância Magnética Nuclear de Próton (1HRMN), por espectroscopia de infravermelho (IV), por cromatografia de permeação em gel (GPC), por calorimetria exploratória de varredura (DSC) e pela técnica de análise termogravimétrica (TGA) A reação de policondensação revelou ser uma rota sintética excelente na obtenção de polímeros de PLA com peso molecular variados. A formação dos polímeros a partir do monômero de ácido láctico foi confirmada pelo desaparecimento da banda de OH em 3500 cm-1 no espectro de infravermelho. O espectro de 1H-RMN de ambos os polímeros, mostrou um sinal atribuído ao hidrogênio do grupo CH3 em 1,52 ppm e um sinal atribuído aos hidrogênios do grupo do CH em 5,16 ppm, que estão de acordo com a literatura. Os polímeros obtidos possuem potencial para uso clínico como materiais de implante.