912 resultados para Itens assim
Resumo:
O crescimento do número de motocicletas nas grandes cidades, em função de fatores como o baixo custo e a alta mobilidade nos centros urbanos, tem sido considerado um importante fator de deterioração da qualidade do ar. Nesse contexto, o monitoramento das emissões gasosas provenientes do escapamento desses veículos é fundamental para o conhecimento da contribuição dessa classe de transporte no agravamento da poluição atmosférica. A partir dessas informações tornam-se possíveis o monitoramento e o controle da qualidade do ar. Para tanto, amostras das emissões de diferentes motocicletas foram coletadas, por meio de dinamômetro, e analisadas por cromatografia gasosa. As emissões das motocicletas foram utilizadas em conjunto com dados meteorológicos utilizando o modelo de trajetória OZIPR e o mecanismo químico SAPRC para demonstrar o impacto na formação do ozônio troposférico na região. As simulações indicam que a concentração de ozônio na troposfera poderá ultrapassar o padrão nacional estabelecido pela Resolução CONAMA 03/90 em até três anos. Além disso, acrescenta-se que as taxas de emissões de compostos legislados emitidos pelas motocicletas utilizadas neste estudo (HC, CO e NOx) já atendem aos níveis preconizados em todas as fases do PROMOT. Assim, além da adoção do PROMOT, se fazem necessárias medidas adicionais para o gerenciamento da emissão de poluentes provindos de fontes móveis. A alteração do tipo de combustível ou até mesmo da fonte de energia, elétrica, por exemplo, seria uma alternativa para o controle da poluição atmosférica
Remediação de solos e lençóis freáticos em postos de gasolina via processo de fenton: estudo de caso
Resumo:
Alguns cientistas ambientais prevêem que a poluição dos solos será um dos maiores legados com grandes impactos para as gerações futuras, pois atualmente ainda existe desconhecimento das fontes poluidoras e da sua extensão. O Brasil, devido a sua extensão territorial, suas bacias hidrográficas, número de postos de abastecimentos e controles ambientais ainda ineficazes, está muito exposto a esse tipo de poluição. Atualmente, há no Brasil mais de 34.300 postos de combustíveis, com volume de 65.000.000 m3 de gasolina e diesel consumidos anualmente, conforme dados da Agência Nacional do Petróleo Gás Natural e Biocombustíveis , ANP, em 2008. Sendo assim, a exposição e contaminação dos solos e dos lençóis freáticos com constituintes aromáticos do diesel e gasolina torna-se um sério problema ambiental. Dentro deste grupo, encontram-se o benzeno, tolueno, xileno, conhecido como BTEX e os hidrocarbonetos policíclicos aromáticos, conhecido como PAH. Este trabalho tem como objetivo estudar a remediação in-situ de um posto de combustíveis na região do ABC Paulista, no Estado de São Paulo. Aplicando-se a técnica de Processo Oxidativo Avançado via reagente de Fenton (H2O2 + Fe2+ → Fe3+ + OH- + OH . ), o radical hidroxila gerado mineraliza compostos aromáticos, decompondo-os definitivamente. Amostras de água do posto em estudo apresentavam elevados teores de BTEX e PAH, 2,58 mg.L-1 e 0,298 mg.L-1 respectivamente, estando em níveis não tolerados pelo órgão ambiental paulista CETESB sendo necessária a intervenção para tratamento da área. Com os níveis de poluentes e o perfil hidrogeológico identificados, a remediação foi iniciada com injeções no solo de peróxido de hidrogênio a 8%v.v, FeSO4 a 0,40 mg.L-1 e solução à base de NPK (nitrogênio, fósforo e nitrogênio) a 100 mg.L-1 como nutrientes para os microorganismos do solo. Estes valores são provenientes de experimentos anteriores e tratamentos já realizados. Foram conduzidas campanhas de injeção trimestrais com 100 litros desta solução completa como reagente , e medições trimestrais de BTEX, PAH e outros parâmetros de controle, que foram indicando o sucesso do tratamento. Após 18 meses o local foi considerado tratado pelo órgão ambiental, onde monitoramentos semestrais estão em continuidade para garantir o resultado do tratamento e das ações corretivas. Assim, o estudo real da remediação de solos contaminados com os poluentes orgânicos via processo de Fenton, com concentração de H2O2 a 8%v/v, e FeSO4 a 0,40 mg.L-1 demonstrou-se uma técnica de sucesso. O entendimento dos resultados da remediação, mesmo sujeitos aos fenômenos naturais, como intempéries e chuvas, é uma experiência grande, pois por mais reais que simulações em laboratório possam ser, é muito difícil incluir nestes sistemas, as variações que um tratamento real está exposto
Resumo:
Este trabalho questiona a construção da memória e da história da capoeira no Rio de Janeiro na segunda metade do século XX. A capoeira como manifestação cultural é tema de um crescente número de trabalhos artísticos, desde peças de teatro, filmes para o cinema, bem como de ações do governo, com destaque para seu tombamento como "patrimônio imaterial da cultura brasileira". É praticada em mais de 150 países, onde se apresenta como mais uma das identidades dos brasileiros no exterior. No Rio de Janeiro, deixou marcas profundas na memória do século XIX, representada em documentos variados do Estado e nas letras dos intelectuais da época. História que tem sido pesquisada por autores que já assistem suas obras sendo consagradas pelo crescente número de interessados no tema. Em contrapartida, a história recente desta prática ainda é assunto raro na historiografia, bem como nas demais disciplinas das ciências humanas. Assim, através da pesquisa etnográfica com o Grupo Folclórico de Capoeira São Bento Pequeno, escola de capoeira de Mestre Paraná, questionamos esta lacuna no conhecimento acadêmico, bem como seu reflexo na formação das "tradições" da capoeira no Rio de Janeiro. O Grupo São Bento Pequeno esteve em atividade nas décadas de 1950 e 1960, período de retomada do crescimento da capoeira no Rio de Janeiro.
Resumo:
A presente dissertação investigou as concepções do Secretariado Sul-Americano (SSA), órgão da Internacional Comunista (IC), com sede na Argentina, e analisou relações entre este órgão e o Partido Comunista do Brasil (PCB). Esta pesquisa foi realizada através do estudo dos textos da revista La Correspondencia Sudamericana, a revista oficial do SSA, publicada entre 1926 e 1930. A partir deste estudo foram identificadas as concepções do SSA no que tange às atividades parlamentar, sindical, de propaganda e agitação revolucionárias, e em relação à tática da frente única proletária. Analisou-se a dominação exercida pelo SSA em relação ao PCB, assim como a reformulação e radicalização que perpassara este órgão entre 1928 e 1930. Investigou-se a crise do SSA que se ligara, diretamente, à crise do Partido Comunista da Argentina (1927) e à atuação do então editor da revista La Correspondencia Sudamericana e vereador de Buenos Aires, Fernando José Penelón. Analisou-se ainda as leituras realizadas pelos comunistas brasileiros acerca da realidade nacional, as questões que envolveram a aprovação da Lei Celerada, que pôs o PCB na ilegalidade em meados de 1927, a tentativa do partido de entabular uma aproximação com a pequena-burguesia radicalizada, a atuação eleitoral e parlamentar do BOC, e as superposições entre este organismo e o PCB. Investigou-se ainda o processo de assimilação por parte dos comunistas brasileiros da linha política radicalizada da IC, e a expectativa da IC e do PCB frente ao vislumbre da revolução democrático burguesa no Brasil no final dos anos 1920, a qual fornecera, internamente, uma lógica para a emergência do obreirismo no PCB.
Resumo:
A Hipóxia-Isquêmica (HI) pré-natal é caracterizada por uma redução no aporte de oxigênio e nutrientes para o feto durante o período gestacional, que pode acarretar, a longo prazo, em dificuldade de concentração e aprendizagem, hiperatividade e déficit de memória. Esses prejuízos podem persistir ou se agravar até a idade adulta, levando ainda ao aparecimento de doenças como epilepsia e paralisia cerebral (PC). A privação de oxigênio e nutrientes, assim como o estresse materno, anemia, eclâmpsia e uso de drogas durante a gestação, podem causar estresse oxidativo durante os períodos críticos do desenvolvimento, e pode ser a principal razão para as mudanças que levam a programação fetal. O objetivo deste estudo foi relacionar a geração de espécies reativas e a consequente formação de estresse oxidativo nos animais adultos, com as alterações da biodisponibilidade do óxido nítrico de forma sistêmica, além de mudanças nos comportamentos motor e de ansiedade, manutenção da memória e aprendizado. Para a hipóxia, foi utilizado o modelo de clampeamento das artérias uterinas das ratas no 18 dia gestacional por 45 min, analisando os filhotes após 90 dias de nascidos. Foram utilizados os testes Open Field e labirinto em cruz elevada para a análise comportamental, e análises das enzimas glutationa peroxidase (GPx), superóxido desmutase (SOD) e catalase, além de quantificação de nitritos, TBARs e carbonilação de proteínas para avaliação de mecanismos oxidantes e antioxidantes. Os resultados demonstraram que o insulto durante a gestação pode acarretar em redução na formação da enzima GPx, além de maior concentração de nitritos analisados nos soros dos animais hipoxiados quando comparados aos controles, contribuindo para o dano oxidativo. Também foi observada redução na memória de habituação e comportamento motor, além de elevado comportamento ansioso em animais hipoxiados, diferentemente de controles. Concluímos assim que a hipóxia isquêmica pré-natal pode alterar permanentemente o estado oxidativo dos animais, além de atuar na formação do comportamento motor, memória de habituação e ansiedade. As descobertas aqui apresentadas contribuem para ampliar o entendimento acerca do evento de hipóxia isquêmica pré-natal, além de prover ferramentas para o desenvolvimento de mecanismos protetores e preventivos aos possíveis danos por ela causados.
Resumo:
A microtomografia computadorizada (uCT) é uma técnica de ensaio não destrutivo, frequentemente utilizada no estudo da estrutura interna de ossos, com uma resolução espacial da ordem de mícrons. Neste trabalho, seis pares de amostras ósseas (fêmur de rato) foram estudados através da uCT. Os ensaios foram conduzidos na presença ou não de filtros de alumínio (espessura de 0,25; 0,50 e 0,75 mm), utilizando-se três níveis de resolução (33,3; 15,0 e 9,5 um). Os parâmetros de arquitetura óssea BS (área óssea da amostra), BV (volume ósseo da amostra), TS (área superficial da amostra), TV (volume da amostra), BV/TV (razão entre o volume ósseo e o volume da amostra), BS/BV (razão entre a área óssea da amostra e o volume ósseo da amostra), Tb.N (densidade trabecular), Tb.Th (espaçamento entre as trabéculas), Tb.Sp (separação trabecular), conectividade e anisotropia foram determinados através das análises em duas (2D) e/ou três (3D) dimensões. A comparação entre os valores dos parâmetros obtidos através dessas análises foi realizada através do teste t pareado e da correlação de Pearson. Com base nos resultados, foi possível determinar a influência da resolução da imagem na qualidade dos parâmetros da arquitetura óssea obtidos através das análises 2D e/ou 3D. Os dados mostram que a presença de filtro de alumínio também afeta a qualidade desses parâmetros. Assim, os melhores resultados são obtidos com resolução máxima e filtro de alumínio com espessura de 0,25 ou 0,50 mm.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
O trabalho está voltado à elaboração de uma teoria dos crimes omissivos, com o sentido de obter uma limitação de sua expansão. Para alcançar esse objetivo, são postas em discussão todas as concepções do crime omissivo, tanto no aspecto dogmático quanto de política criminal. Na primeira parte, estão apresentados os problemas práticos da omissão, sua evolução legislativa e sua importância. A partir daí, são discutidas as elaborações doutrinárias quanto à sua natureza, à sua estrutura e à sua punibilidade. Quanto à sua natureza, a omissão é analisada como forma de ação, como forma equiparada de ação e como forma correspondente de ação. Quanto à sua estrutura, a omissão é vista sob o enfoque de seu tratamento legal, que requer um aprofundamento da composição da norma e de seus elementos comunicativos. Quanto à sua punibilidade, são destacados seus aspectos contraditórios referentes à falta de simetria entre sua estrutura empírica e normativa, de um lado, e as consequências pelo descumprimento do dever, de outro lado. Na segunda parte, formata-se uma conclusão dogmática crítica de toda a discussão em torno da natureza, da estrutura e da punibilidade da omissão. Inicia-se sob uma crítica dos objetivos da dogmática e se projeta sobre todas as questões fundamentais que envolvem os crimes omissivos. São feitas assertivas sobre a tipicidade, a antijuridicidade e a culpabilidade da omissão, assim como sobre o concurso de pessoas e suas fases de execução. Para não sobrecarregar o texto, são tratados em anexo os temas relacionados ao concurso de crimes e aos delitos omissivos culposos. Tendo em vista que a segunda parte constitui uma conclusão de todo o desenvolvimento crítico da omissão, realizado na primeira parte, não foram enumerados tópicos conclusivos. O método empregado está baseado no princípio dialético construtivista de Holzcamp.
Resumo:
Esta dissertação estuda o papel do sujeito na literatura e sua relação com a cultura e alteridade através da análise de duas obras: Nove noites, de Bernardo de Carvalho e Coração das Trevas de Joseph Conrad. As obras estudadas mostram a crise que atinge os protagonistas dos dois livros depois do encontro com outras culturas. Em Nove noites o outro é representado pelo índio e em Coração das Trevas pelos africanos. Em Nove noites o antropólogo Buell Quain se suicida depois de uma estada entre os índios Krahô, e em Coração das Trevas vemos a deterioração do homem branco representada pelo personagem de Kurtz. Considerado um homem notável e um altruísta na Europa, Kurtz teria se corrompido no contato com a realidade do Congo e se torna, nas palavras do narrador Marlow, um dos demônios da terra. A dissolução da personalidade e código moral do homem branco, representada pelos dois personagens, será estudada analisando a relação entre personalidade e cultura e como a falta de apoio e controle grupal desarticula valores até então considerados estáveis, assim como o contato com o outro. Esta desarticulação do sujeito causada pelo choque cultural se soma à crise geral do sujeito moderno e ao mal-estar na civilização, como descrito por Freud. A posição paradoxal do antropólogo, que se situa entre duas culturas, faz parte desta análise, do mesmo modo questões pertinentes a posição dos índios e africanos no Congo. No caso específico de Coração das Trevas trabalha-se a interseção entre a análise do sujeito, e suas implicações, e a construção do personagem de Kurtz como símbolo da violência colonial. O trabalho analisa também as semelhanças entre as duas obras, tanto temáticas como em suas técnicas narrativas e a influência da obra de Conrad nos romances de Carvalho
Resumo:
A paternidade responsável se destaca no contexto da Constituição de 1988, refletindo seus efeitos para todo o sistema. Os pais, ao assumirem esse status, passam a ser titulares de diversas obrigações sendo verdadeiro afirmar que deles, de alguma forma, sempre se exigiu certo tipo de responsabilidade. Seu conteúdo, todavia, é que variou no histórico da construção da família brasileira. A proteção aos filhos, anteriormente mais formalista e restrita à aplicação de medidas de suspensão ou destituição do poder familiar (pátrio poder), cedeu espaço para outros valores. Atualmente, cabe aos pais, em essência, a formação e a emancipação da pessoa do filho. Assistir, educar e criar são as ações básicas que informam a sua responsabilidade, sendo ainda titulares do dever de inserir o menor no contexto da família e da sociedade. A igualdade, a solidariedade e a autonomia se mesclam ao encargo parental, a bem da formação física e psíquica da prole. Mas, é necessário observar que o dever de cuidado, imposto constitucionalmente aos pais, é transferido para os filhos após a maioridade, por meio de uma lógica de reciprocidade e vulnerabilidade. Assim, passam estes a ser responsáveis pela assistência e pelo cuidado dos ascendentes doentes ou, por qualquer outro motivo, necessitados. Considerado o fato de que a verdadeira parentalidade é aquela que cria o estado concreto de pai-filho, reflexo do cumprimento da responsabilidade, é forçoso concluir pela inexistência de seus efeitos jurídicos nos casos em que o vínculo restou fixado pela simples formalidade do registro. Defende-se, então, para o fim de eximir os filhos de seus deveres, a desconstituição do vínculo registral ou a inocuidade de seus efeitos, sempre que os pais não tenham cumprido responsavelmente as suas funções em benefício da prole. As normas jurídicas constitucionais e infraconstitucionais legitimam tal prerrogativa, afastando as obrigações dos filhos cujos direitos fundamentais não foram respeitados pela incúria daqueles que tinham contrariamente o encargo de assistir e cuidar.
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
Este trabalho se propõe a desvendar os contornos principiológicos e instrumentais daquilo que doravante iremos chamar Justo Processo Coletivo Laboral, ramo especialíssimo do processo dedicado à resolução de lides trabalhistas metaindividuais. O foco de nossas atenções é a tutela que é prestada em favor e não contra a coletividade. A falta de disposições específicas na CLT a respeito da tutela de direitos difusos, coletivos e individuais homogêneos próprios à realidade do trabalho torna imperiosa a inserção do Processo Trabalhista no circuito normativo de tutela coletiva, no chamado microssistema coletivo de tutela, composto, dentre outros diplomas, pelo Código de Defesa do Consumidor e pela Lei da Ação Civil Pública. A acomodação do Processo do Trabalho no ambiente coletivista será feita à luz da constelação de princípios constitucionais do processo e sob influxo do paradigma processual instrumental. A partir da identificação das principais barreiras que repelem o trabalhador do Poder Judiciário, procura-se demonstrar de que modo podem as ações coletivas contribuir para sua superação e assim para alavancar e universalizar o acesso à justiça, meta síntese para a qual convergem todos os esforços da processualística contemporânea. Apresentadas suas nuanças principiológicas, parte-se para a análise de seus principais institutos e do modo como deverá ser operacionalizado no dia-a-dia, isto é, de como irá funcionar. A crise de efetividade do processo de bases individualistas, especialmente para o trabalhador hipossuficiente, acentua a importância do devido processo legal coletivo do trabalho, instrumentalmente vocacionado a tornar justo o embate Capital X Trabalho e a conduzir grupos de trabalhadores de uma só vez à justa ordem jurídico-social.
Resumo:
O diagnóstico precoce e o tratamento são imprescindíveis para o controle da hanseníase, pois visam eliminar o mais precocemente possível as fontes de transmissão. O principal critério de cura da doença é o tempo de tratamento, relacionado às doses fixas da poliquimioterapia. O tempo de tratamento dos pacientes multibacilares foi reduzido de 24 para 12 doses em até 18 meses em 1998. Os objetivos desta tese foram: avaliar a detecção de casos de hanseníase entre os contatos dos pacientes e avaliar fatores de risco associados à piora das incapacidades físicas nos pacientes após a alta do tratamento poliquimioterápico com as 12 doses mensais. Dois artigos foram elaborados. O primeiro artigo avaliou características dos pacientes com hanseníase e de seus contatos associadas ao risco de adoecimento entre os contatos. O segundo artigo avaliou fatores de risco relacionados à piora das incapacidades físicas dos pacientes com hanseníase multibacilar, submetidos ao tratamento com 12 doses fixas da poliquimioterapia. Os resultados mostraram que o risco para hanseníase, relacionado aos contatos foi o tipo de convivência com o caso índice. Entre os fatores dos casos índices, a carga bacilar foi o único associado ao adoecimento dos contatos. Além desses fatores, os contatos que apresentam relação de consangüinidade com o caso índice e os contatos dos pacientes com menor nível de escolaridade mostraram maior chance de se apresentarem doentes no momento do diagnóstico do caso índice. A cicatriz BGC e a vacina recebida após o diagnóstico do caso índice contribuíram independentemente como fatores de proteção. A neuropatia piorou em 40% dos pacientes durante o período de 10 anos após a alta do tratamento. Esta piora foi associada à presença de incapacidades físicas e ao número de lesões cutâneas no momento do diagnóstico assim como à presença de neurite durante o acompanhamento.
Resumo:
O propósito do presente trabalho foi investigar a participação da proliferação celular e da expressão dos componentes da matriz extracelular na cascata de eventos do processo de reparo da fratura óssea, empregando as técnicas histológica, imunohistoquímica e morfométrica, em um modelo experimental padronizado para a indução da lesão na tíbia de ratos a partir do método empregado por Yuehuei e Friedman7. É importante padronizar um modelo de indução da fratura, para posterior investigação da participação das células e dos componentes da matriz extracelular no processo de reparo da fratura, considerando que o tempo de consolidação depende significantemente da natureza e do tipo da lesão produzida. Quarenta (n = 40) ratos Wistar foram submetidos a fratura . Os animais foram avaliados em oito (n = 8) grupos de cinco (n = 5) animais, cada grupo emperimental com 12, 24, 48, 72, 96, 144, 192 e 240 horas após a fratura (12h até 10 dias). As fraturas foram classificadas de acordo com o sistema de classificação internacional de fratura de Muller100, AO (Associação para Osteosíntese). Foram encontradas fraturas simples em 86% do total, sendo 68% de fraturas transversas e 18% de fraturas obliquas, 14% do total de fraturas foram complexas, sendo 8% de fraturas irregulares e 6% de fraturas segmentares. Esses resultados demonstram que o aparelho permite padronizar radiológicamente o tipo de fratura, caracterizado pela linha que separa os fragmentos ósseos. Os resultados qualitativos dos componentes da matriz extracelular para TGF-β, VEGF, colágeno I e II, osteopontina, proteoglicanos, fibras do sistema elástico com a coloração de resorcina funcsina de Weigert, e para proliferação celular pelo PCNA, assim como os resultados morfométricos, sugerem que a modulação da expressão dos componentes da matriz extracelular e a proliferação celular durante o processo de reparo da fratura não é homogênea para todos os componentes teciduais, dependendo significantemente das tensões locais geradas pelo tipo da linha de fratura que pode ser determinante no tempo de regeneração do osso e na qualidade da restauração das propriedades biomecânica. Nossos achados podem contribuir para melhor compreensão da reparo de fratura óssea e para novas abordagens terapêuticas que considerem as propriedades biomecânicas do tecido ósseo em reparo nas suas diferentes etapas
Resumo:
Aplicações cientes de contexto precisam de mecanismos para recuperar informações sobre o seu contexto de execução. Com base no contexto atual, tais aplicações são capazes de se autoadaptar para fornecer informações e serviços adequados aos seus usuários. A abordagem comum para infraestruturas de apoio às aplicações sensíveis ao contexto fornece serviços para a descoberta de recursos através da utilização de pares