179 resultados para Busca da informação - Modelos
Resumo:
A proposta deste estudo é entender o fenômeno da adolescente em situação de rua através da Teoria das Representações Sociais, buscando a imbricação de relações, funções, tensões, saberes, valores que constroem e transformam as práticas cotidianas familiares para produzir o afastamento do convívio familiar ou prevenir a desafiliação. O objetivo principal é analisar o processo de desafiliação vivido na família e a possibilidade de sua prevenção a partir das representações sociais sobre a adolescente em situação de rua na perspectiva da própria adolescente. Trata-se de pesquisa qualitativa, na qual 21 adolescentes com experiência de viver na rua foram acessadas em um abrigo da rede municipal. Os dados foram produzidos através da entrevista semi-estruturada e analisados à luz da análise temático-categorial de conteúdo com auxílio do software NVivo. Os resultados indicam que a representação social da adolescente em situação de rua para a própria adolescente envolve um circuito que compreende a tradicional imagem do menor carente e abandonado, por suas perdas e ausências que constituem verdadeiros desafios de sobrevivência, para os quais encontram formas de enfrentamento em sua maioria consideradas desviantes, acrescentando a imagem da delinquência e criminalidade. Contudo, as práticas, relações, valores e lógicas estabelecidas, que tornam possível esse modo de viver, dão contorno a uma imagem da adolescente ancorada em atributos positivos como força, alegria, inteligência, afetividade, sagacidade/habilidade/capacidade de aprendizado, sinalizando uma ruptura (ainda que parcial) na tradicional representação da mulher como sexo frágil e submisso. O processo de desafiliação, por sua vez, é gradualmente constituído, de um lado pelos diversos fatores de esgarçamento dos laços familiares, e, de outro lado, pela aproximação e socialização com a rua, sendo fortemente influenciado pelas representações sociais acerca da adolescente em situação de rua (pela familiaridade com as práticas relacionadas com este modo de viver, mas, principalmente, pelos atributos positivos relativos à ideia de liberdade, força, diversão, facilidade, enfrentamento). Conhecer e valorizar a trajetória, crenças e representações de cada família e a estrutura de práticas e relações, situando-a num contexto histórico e cultural parece fundamental para a atuação junto às famílias e às adolescentes. A lógica das políticas públicas voltadas para a família deve considerar a instrumentalização que viabilize a atuação com base nesses parâmetros.
Resumo:
O presente trabalho busca compreender as ressignificações do discurso pedagógico contemporâneo a partir da análise dos slogans que circularam na recente Conferência Nacional de Educação (CONAE), como modo de problematizar os projetos ideológicos em disputa por hegemonia no campo da educação nacional. Situado no entrecruzamento entre os campos da linguagem, da ideologia e do poder como hegemonia, toma a teoria enunciativa de Mikhail Bakhtin e a Análise Crítica do Discurso (ACD), nos termos em que formulada por Norman Fairclough, como propostas teórico-metodológicas. No escopo de um diálogo tecido entre os autores, assume a linguagem como parte irredutível da vida social, em duas abordagens que propõem as noções de discurso e de poder em perspectiva crítica. Pautado na imersão da pesquisadora na CONAE, esfera de produção-circulação do discurso pedagógico contemporâneo, este trabalho assume o texto como material privilegiado de análise, focalizando documentos oficiais e pronunciamentos político-governamentais. Dois discursos nodais foram identificados: o da democratização e o da qualidade. Em relação ao primeiro, são analisados os pressupostos assumidos e a constituição histórica de um campo de sentidos que inclui artifícios retóricos. Em relação ao segundo, é dado tratamento crítico ao léxico associado à qualidade em suas sucessivas adjetivações. A partir de ambos os discursos foram analisados dois slogans. O primeiro deles denominado Educação para todos!, Todos pela Educação! aponta para dois deslocamentos semânticos: 1) do direito à educação para o direito à qualidade; e 2) da perspectiva da igualdade para a de uma inclusão baseada no conceito da diferença. O segundo slogan denominado O protagonista, professor! aponta para um lugar contraditório ocupado pelo professor, em que a exortação não se coaduna com suas condições materiais de existência. Para abordar a constituição ideológica deste lugar, nos seus sentidos hegemônicos, são analisados: os discursos da OCDE e imagens de professores na mídia como expressões das relações entre os contextos micro e macro. Para a compreensão dos slogans é situado o binômio informação-conhecimento como cronotopo-chave da contemporaneidade. É nesse cenário que as expectativas relativas à produção do conhecimento são articuladas a exigências do sistema produtivo, sendo a educação concebida como instrumento de racionalidade econômica. Desse modo, o movimento analítico questiona, para além da positividade aparente, a forma como os slogans ganham centralidade no discurso pedagógico contemporâneo, na tentativa de perceber sentidos que interpelam sujeitos e sistemas de ensino e vão sendo naturalizados, até que, tomados como necessários, afastam possibilidades de crítica
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
A remoção de compostos sulfurados da gasolina é um assunto de grande interesse na indústria de refino de petróleo em função das restrições ambientais cada vez mais rígidas em relação ao teor máximo de enxofre de produtos acabados. A solução mais comum para remoção de contaminantes são as unidades de hidrotratamento que operam a alta pressão e possuem alto custo de instalação e de operação além de levarem à perda de octanagem do produto acabado. O uso de membranas é uma alternativa promissora para a redução do teor de enxofre de correntes de gasolina e possui diversas vantagens em relação ao hidrotratamento convencional. O conhecimento aprofundado dos parâmetros que influenciam as etapas de sorção e difusão é crítico para o desenvolvimento da aplicação. Este trabalho avalioua seletividade e sorção do sistema formado por n-heptano e tiofeno em polímeros através de modelos termodinâmicos rigorosos, baseados em contribuição de grupos. O modelo UNIFAC-FV, variante do tradicional modelo UNIFAC para sistemas poliméricos, foi o modelo escolhido para cálculo de atividade dos sistemas estudados. Avaliou-se ainda a disponibilidade de parâmetros para desenvolvimento da modelagem e desenvolveu-se uma abordagem com alternativas para casos de indisponibilidade de parâmetros UNIFAC. Nos casos com ausência de parâmetros, o cálculo do termo residual da atividade das espécies é feito na forma proposta por Flory-Hugginsutilizando-se parâmetros de solubilidade obtidos também por contribuição de grupos. Entre os métodos de contribuição de grupos existentes para cálculo de parâmetros de solubilidade, o método de Hoy mostrou menores desvios para os sistemas estudados. A abordagem utilizada neste trabalho permite, ao final, uma análise de alterações da configuração da cadeia principal de polímeros de forma a influenciar sua seletividade e sorção para dessulfurização de naftas
Resumo:
Diante dos avanços tecnológicos, pesquisadores têm intensificado a busca por métodos de remoção de metais, que tragam bons resultados de captação a partir de efluentes contaminados, aliados a um baixo custo. A utilização de materiais biológicos como algas marinhas, fungos e bactérias vem se destacando e se tornando uma solução atrativa quando comparados com os tratamentos químicos convencionais; essa técnica é denominada biossorção. A biossorção é um processo de captação de íons metálicos de uma solução, a partir de interações entre o metal e determinados sítios ativos presentes na parede celular da biomassa. Existe também um crescente interesse pelo estudo dos elementos de terras raras (TR) por possuirem alto valor agregado, acarretado por processos caros e de alta complexidade na sua separação e purificação. Desta forma, este trabalho teve como objetivo descrever o potencial de biossorção de lantânio - um representante dos TR - pela macroalga Sargassum sp., a partir de soluções aquosas. Para isso foram realizados estudos em batelada, aplicando modelos cinéticos e de equilíbrio, e estudos em regime contínuo de biossorção dos íons de lantânio (III), além de um sistema contínuo bimetálico, no qual houve a adição do metal cério, outro TR. As determinações analíticas foram realizadas por espectrometria de emissão ótica por plasma indutivamente acoplado. Os ensaios cinéticos foram realizados nas concentrações metálicas de 10 e 100 mg.L-1 e em duas concentrações distintas de biomassa 2 e 5 g.L-1 na temperatura de 301C. Dois modelos cinéticos foram testados, pseudo-primeira ordem e segunda ordem, tendo o modelo de segunda ordem apresentado melhor ajuste dos dados, com r2 igual a 0,9697. No ensaio de equilíbrio foi construída a isoterma que apresentou um perfil crescente na captação no entanto não alcançou a remoção máxima. Os modelos de Langmuir e Freundlich foram utilizados para ajustar os dados da isoterma, sendo verificado maior correlação dos dados com o modelo de Langmuir; resultando num valor de captação máxima calculado pelo modelo de 3,55 mmol.g-1. No ensaio dinâmico foram realizados dois experimentos, 1 e 2. O Experimento 1 foi realizado com três colunas interligadas e recheadas com 20g de biomassa cada, sendo bombeada uma solução aquosa de lantânio na concentração de 1,41mmol.L-1. O Experimento 2 foi constituido de uma solução contendo lantânio e cério ambos na mesma concentração anterior de 1,41 mmol.L-1, sendo bombeada somente para uma única coluna recheada com 20g de biomassa. Os resultados demonstraram que o ponto de saturação não foi atingido dentro das 8 horas em que se deu o processo, o que indica a alta afinidade da Sargassum sp. pelo lantânio e que a presença do cério associada a redução da vazão prejudicou a captação do lantânio
Resumo:
Como forma de impulsionar o crescimento econômico, governos de diversos países incentivam o empreendedorismo, a inovação e o desenvolvimento tecnológico. Para isto, se utilizam de programas governamentais por meio de políticas de incentivo ou subvenção econômica a empreendimentos com este perfil. No Brasil, o capital de risco público vem sendo oferecido à empresas inovadoras através dos fundos da série Criatec, com recursos do BNDES. Estas empresas possuem, principalmente, ativos intangíveis, que devem ser considerados pelos investidores em suas avaliações que antecedem o aporte de recursos. Neste contexto, esta pesquisa foi desenvolvida com o objetivo de analisar como a metodologia de avaliação de intangíveis utilizada pelo Fundo Criatec I do BNDES, como ferramenta de apoio de decisão de investimento de capital de risco público, considera os indicadores de inovação frente aos modelos teóricos propostos na literatura contábil. Para isto foi realizado estudo de campo através de entrevistas realizadas com os gestores do Fundo e com diversas empresas investidas por este. Por meio da pesquisa foi observado que é realizada profunda análise das empresas candidatas ao aporte de recursos através da avaliação de três fatores de risco. Foi possível verificar indicadores de inovação presentes nas metodologias de avaliação de intangíveis propostas na literatura contábil na análise de um destes fatores. Contudo foi possível identificar que os indicadores de inovação não são avaliados de forma pré definida e parametrizada no modelo utilizado pelo Fundo.
Resumo:
A presente pesquisa objetiva verificar a contribuição da tecnologia da informação na previsão de indicadores de desempenho da Empresa Alfa. Para a realização deste estudo, foi realizado um estudo de caso único a fim de aprofundar na pesquisa de forma exploratória e descritiva. As técnicas utilizadas para tal foram análise documental e entrevista, que deram suporte à pesquisa quantitativa atendendo ao objetivo proposto no estudo e na fundamentação teórica. A pesquisa teve como base principal os resultados dos indicadores de desempenho dos anos de 2012 e 2013 descritos no planejamento estratégico referente ao ano de 2013. Através desses resultados foi possível prever os resultados dos indicadores para 2014 utilizando o software Weka e assim realizar as análises necessárias. Os principais achados demonstram que a Empresa Alfa precisará antecipar ações para maximizar seus resultados evitando que impactem negativamente na rentabilidade, além de ter a necessidade de manter uma base de dados sólida e estruturada que possa subsidiar previsões confiáveis e alimentar futuramente o programa a fim de realizar novas previsões. O resultado da pesquisa aponta que o sistema de informações Weka contribui para a previsão de resultados, podendo antecipar ações para que a organização possa otimizar suas tomadas de decisões, tornando-as mais eficientes e eficazes.
Resumo:
Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.
Resumo:
O estudo procuratraçar os contornos gerais do direito ao esquecimento no ordenamento jurídico brasileiro. O direito ao esquecimento consiste em um instrumento eficaz para impedir que a divulgação de fatos passados, destituídos de relevância informativa, venham a impedir o livre desenvolvimento da pessoa humana, na realização autônoma de seu projeto de vida. Apesar de poder ser exercido por qualquer indivíduo, independentemente de sua notoriedade, o direito ao esquecimento não é absoluto edeve ser ponderado com os direitos potencialmente conflitantes, como a liberdade de expressão e direito à informação.Para melhor compreensão dessa difícil ponderação são apresentados os critérios utilizados pela jurisprudência nacional e estrangeira na solução do árduo conflito entre a divulgação das informações e o direito ao esquecimento, em cujo contexto a atualidade da informação emerge como critério preponderante, embora não absoluto, já que fatos de relevância histórica também merecem proteção jurídica. A questão é igualmente examinada no ambiente virtual, a fim de que sejam identificadas as diversas formas de esquecimento na internet, as quais encontram outros meios de efetivação não se restringindo à possibilidade de apagar informações.
Resumo:
Em estudos ecológicos é importante entender os processos que determinam a distribuição dos organismos. O estudo da distribuição de animais com alta capacidade de locomoção é um desafio para pesquisadores em todo o mundo. Modelos de uso de habitat são ferramentas poderosas para entender as relações entre animais e o ambiente. Com o desenvolvimento dos Sistemas de Informação Geográfica (SIG ou GIS, em inglês), modelos de uso de habitat são utilizados nas análises de dados ecológicos. Entretanto, modelos de uso de habitat frequentemente sofrem com especificações inapropriadas. Especificamente, o pressuposto de independência, que é importante para modelos estatísticos, pode ser violado quando as observações são coletadas no espaço. A Autocorrelação Espacial (SAC) é um problema em estudos ecológicos e deve ser considerada e corrigida. Nesta tese, modelos generalizados lineares com autovetores espaciais foram usados para investigar o uso de habitat dos cetáceos em relação a variáveis fisiográficas, oceanográficas e antrópicas em Cabo Frio, RJ, Brasil, especificamente: baleia-de-Bryde, Balaenoptera edeni (Capítulo 1); golfinho nariz-de-garrafa, Tursiops truncatus (Capítulo 2); Misticetos e odontocetos em geral (Capítulo 3). A baleia-de-Bryde foi influenciada pela Temperatura Superficial do Mar Minima e Máxima, no qual a faixa de temperatura mais usada pela baleia condiz com a faixa de ocorrência de sardinha-verdadeira, Sardinella brasiliensis, durante a desova (22 a 28C). Para o golfinho nariz-de-garrafa o melhor modelo indicou que estes eram encontrados em Temperatura Superficial do Mar baixas, com alta variabilidade e altas concentrações de clorofila. Tanto misticetos quanto os odontocetos usam em proporções similares as áreas contidas em Unidades de Conservação (UCs) quanto as áreas não são parte de UCs. Os misticetos ocorreram com maior frequência mais afastados da costa, em baixas temperaturas superficiais do mar e com altos valores de variabilidade para a temperatura. Os odontocetos usaram duas áreas preferencialmente: as áreas com as menores profundidades dentro da área de estudo e nas maiores profundidade. Eles usaram também habitats com águas frias e com alta concentração de clorofila. Tanto os misticetos quanto os odontocetos foram encontrados com mais frequência em distâncias de até 5km das embarcações de turismo e mergulho. Identificar habitats críticos para os cetáceos é um primeiro passo crucial em direção a sua conservação
Resumo:
A obesidade, cuja origem é multifatorial e a prevalência é crescente em diferentes regiões no mundo, está geralmente associada à produção desregulada de adipocinas, ao aumento do estresse oxidativo e à ocorrência de distúrbios metabólicos como dislipidemia, intolerância à glicose e hipertensão. A Programação Metabólica ou Plasticidade Ontogenética tem sido proposta como um importante fator na etiologia da obesidade. Este fenômeno sugere que alterações nutricionais, hormonais e ambientais durante períodos críticos do desenvolvimento, tais como gestação e lactação, podem alterar a fisiologia e o metabolismo de um organismo provocando o desenvolvimento de distúrbios metabólicos na vida adulta. Neste trabalho foram estudados dois modelos de plasticidade ontogenética que programam ratos Wistar para obesidade na vida adulta: a supernutrição na lactação e o desmame precoce. A supernutrição na lactação provocada pela redução da ninhada causou obesidade, hiperfagia, aumento do estresse oxidativo, resistência hepática à ação da insulina e esteatose nas proles na idade adulta. A desnutrição, provocada pelo desmame precoce, também se associou na idade adulta com obesidade visceral, aumento do estresse oxidativo e esteatose, assim como dislipidemia, resistência à insulina, hipertensão arterial e resistência central à leptina. No modelo de programação pelo desmame precoce, os animais adultos foram tratados com resveratrol (30mg/kg/MC), um polifenol encontrado nas uvas e conhecido por seus efeitos antioxidante e hipoglicemiante, por 30 dias. Os animais programados pelo desmame precoce que receberam resveratrol tiveram massa corporal, gordura visceral e morfologia hepática semelhantes aos animais controles. Ainda, o resveratrol normalizou a pressão arterial, a dislipidemia, a glicemia e as concentrações de adiponectina e leptina. A normalização da leptinemia esteve associada à correção da resistência central à leptina nestes animais, uma vez que o resveratrol normalizou além da ingestão, o conteúdo hipotalâmico de JAK2, pSTAT3 e NPY. Portanto, os animais programados pela supernutrição na lactação ou pelo desmame precoce apresentaram aumento do estresse oxidativo associado à obesidade e alterações metabólicas como esteatose. O tratamento com resveratrol nos animais programados pelo desmame precoce preveniu o aumento de estresse oxidativo, obesidade visceral, resistência à insulina, dislipidemia e esteatose. Além disso, o resveratrol causou normalização da leptinemia nestes animais, assim como da ação deste hormônio no hipotálamo, controlando a hiperfagia característica deste modelo.
Resumo:
Este trabalho tem como objetivo analisar a estruturação do diagnóstico de Transtorno de Personalidade. Inicialmente, o trabalho percorre o território conceitual com o qual, desde sua origem na passagem do século XVIII para o XIX, a psiquiatria procurou nomear, explicar e compreender as personalidades consideradas anormais. Em seguida promove-se uma discussão acerca das concepções de personalidade, normalidade e patologia que circunscrevem a categoria, orientada a partir do estudo de seus diferentes modelos diagnósticos presentes no DSM-5. Por fim busca-se compreender a relevância atual do diagnóstico de transtorno de personalidade através da análise de alguns exemplos de seu uso em contextos médico, legal e literário. O objetivo é o de entrever o lugar ocupado por esse diagnóstico, especialmente o do tipo Antissocial, no imaginário cultural presente.
Resumo:
A presente dissertação busca analisar os aspectos subjacentes à emergência de um novo paradigma no que tange à inovação: open innovation (ou inovação aberta). Tendo em vista que o estudo comporta a necessidade de conceituação, importa observar que atualmente o conhecimento se mostra difundido entre inúmeras fontes. Sendo assim, a ideia de uma estrutura totalmente vertical e autossuficiente de pesquisa e desenvolvimento, inerente aos modelos fulcrados no paradigma anterior (closed innovation ou inovação fechada), vem dando lugar à crença de que ideias valiosas podem surgir tanto internamente quanto externamente, da mesma maneira que as inovações resultantes das atividades empresariais podem chegar ao mercado por caminhos internos e externos. Essa abordagem atribui grande relevância ao intercâmbio de conhecimento e à perspectiva colaborativa, destacando como principal vantagem a diminuição dos custos com pesquisa e desenvolvimento. Dentre os vários pontos de distinção entre os referidos paradigmas encontra-se a função a ser desempenhada pela propriedade intelectual. Por conseguinte, o objetivo desta dissertação consiste em investigar como a propriedade intelectual funciona dentro da lógica pela qual se orienta a inovação aberta, isto é, se ela impede o fluxo de conhecimento entre os diversos agentes do mercado envolvendo tecnologia ou, ao contrário, se a proteção formal desses ativos intangíveis é o elemento que permite tal intercâmbio. Nesses termos, busca-se demonstrar que as sociedades empresárias adotantes desse modelo aberto abordam a questão da titularidade de direitos de propriedade intelectual como ponto crucial à consecução de práticas baseadas em inovação aberta, as quais se instrumentalizam a partir de contratos formais. Importa observar que, através de uma metodologia científica de análise de conteúdo, toda a investigação em curso se perfaz tendo em conta a empresa enquanto conceito dinâmico dentro do contexto da manifestação do mercado como um fenômeno poliédrico, o qual, em se tratando de temas como propriedade intelectual, será orientado para a inovação. Desta feita, a conclusão da pesquisa indica que os direitos da propriedade intelectual são importantes ativos em uma lógica de open innovation, pois esta não advoga a extinção da propriedade intelectual, mas a flexibilização de sua exploração.
Resumo:
A asma é um distúrbio crônico pulmonar caracterizado por inflamação, obstrução e remodelamento brônquico, levando a sintomas como sibilo, tosse e falta de ar. A terapia antiasmática consiste em corticosteroides inalados e agonistas β2 de curta ou longa duração. O tratamento é limitado por efeitos colaterais e refratariedade de alguns pacientes, justificando a necessidade de novas terapias. Estudos demonstram que a 15-deoxy-delta- 12,14-prostaglandina J2 (15d-PGJ2), um ligante endógeno de receptores ativados por proliferadores de peroxissomos do tipo gama (PPAR-γ), é capaz de reduzir a expressão de citocinas pró-inflamatórias, o que pode resultar em benefícios no tratamento de doenças com esse perfil. O objetivo deste estudo foi avaliar o potencial anti-inflamatório e antiasmático da 15d-PGJ2 em modelos experimentais de asma. Camundongos A/J machos foram sensibilizados nos dias 0 e 7 através de injeção subcutânea (s.c.), contendo ovoalbumina (OVA) e Al(OH)3, e desafiados com 4 instilações intranasais (i.n.) de OVA em intervalos semanais. O tratamento com 15d-PGJ2 (30 e 100 g/Kg, s.c.) foi realizado 30 min antes dos desafios a partir da terceira provocação antigênica. Em outro modelo, camundongos A/J foram desafiados intranasalmente com extrato de ácaro 3 vezes por semana durante 3 semanas. As administrações de 15d-PGJ2 (30, 70 e 100 g/Kg, s.c. e 0,65; 1,5 e 2,3 g/animal, i.n.) foram realizadas a partir da 3 semana, 30 min antes dos desafios. As análises ocorreram 24 h após o último desafio. Nossos resultados mostraram que, em camundongos previamente sensibilizados e desafiados com OVA, a administração de 15d-PGJ2 limitou significativamente o influxo peribrônquico de eosinófilos e neutrófilos, bem como a produção de muco por células caliciformes e fibrose sub-epitelial, além da hiperreatividade das vias aéreas e produção de IL-5. A redução do epitélio brônquico e das citocinas IL-13 e TNF-α foram observadas somente na maior dose administrada. No modelo HDM a inflamação e o remodelamento foram atenuados em todas as doses administradas do composto, enquanto que a hiperresponssividade brônquica foi inibida apenas nas doses de 70 e 100 μg/Kg (via sistêmica) e na dose intermediária dada topicamente (1,5 μg/animal, i.n.). Os níveis de citocinas foram atenuados pelo tratamento subcutâneo, porém somente os níveis de IL-17, eotaxina-1 e TNF-α foram inibidos com a dose intranasal de 0,65 g/animal. O aumento da expressão de NF-κB, induzido por provocação com HDM também foi reduzido significativamente pela administração de 15d-PGJ2. Em conjunto, nossos dados indicam que o tratamento com 15d-PGJ2 inibe alterações cruciais associadas à patogênese da asma, em modelos experimentais distintos da doença, demonstrando possuir grande potencial para controlar e reverter inflamação, hiperreatividade e remodelamento pulmonar desencadeados por provocação alérgica.
Resumo:
As queimaduras são eventos comuns e recorrentes no dia a dia dos atendimentos médicos. Há uma constante busca para entender a sua fisiopatologia, no intuito de minimizar seus resultados devastadores. Plasma rico em plaquetas (PRP) é um concentrado de plaquetas com capacidade de liberação local de múltiplos fatores de crescimento (FC) que aceleram a cicatrização. Este estudo consiste em dois experimentos: o primeiro visa validar um modelo experimental para a criação de queimaduras de tamanho e profundidade padronizados e, o segundo, avalia o uso de PRP em queimaduras. Para o desenvolvimento de queimaduras na validação do modelo experimental, foi idealizado um equipamento que permitisse o controle preciso da temperatura, além da utilização em conjunto de uma técnica inovadora de fixação que garante pressão constante no momento das queimaduras. Para o primeiro experimento, foram utilizados 12 ratos, por grupo, submetidos a queimaduras de 60 oC, 70 oC ou 80 oC por dez segundos, com um equipamento que desenvolvemos. Metade dos animais de cada grupo foi morta no terceiro dia e suas feridas foram analisadas por histologia, e, na outra metade, a ferida foi mensurada e acompanhada até o seu fechamento. No uso de PRP em queimaduras, foram avaliadas queimaduras de segundo grau (SG), segundo grau com diabetes mellitus induzido (SGD) e queimaduras de terceiro grau (TG). Noventa animais foram distribuídos em três grupos (SG, SGD e TG), onde, em cada um, dez animais foram tratados, dez serviram de controle e dez foram utilizados para o preparo do PRP. As áreas das feridas foram acompanhadas até o vigésimo primeiro dia, quando os animais foram mortos e biópsias de pele foram realizadas. Os resultados da validação do modelo mostram que as queimaduras produzidas com 60 oC foram de SG superficial (28% da derme envolvida); com 70 oC foram de SG profundo (72% da derme envolvida); e com 80 oC foram de TG (100% da derme envolvida). Em relação ao uso de PRP em queimaduras, observou-se que nos grupos tratados SG e SGD houve aceleração do fechamento da ferida e redução no número de células CD31, CD163, CD68, MPO e TGF-β positivas, e aumento do número de células MMP2 positivas. A neoepiderme foi mais fina nos controles dos grupos SG e SGD, e o tecido de granulação foi reduzido nos controles SGD e TG. O modelo utilizado é seguro e confiável para produzir queimaduras regulares e uniformes, de diâmetros variados, pela capacidade do controle fino da temperatura e pelo posicionamento do animal, e reprodutíveis. PRP parece acelerar a cicatrização de queimaduras de SG e SGD, mas não de TG.