19 resultados para potencial de uso
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O poli (ácido L-láctico) (PLLA) é um material de grande interesse na área científica, por ser um polímero biodegradável e bioabsorvível, e pela sua grande utilização na área biomédica. Este estudo teve como objetivo a síntese de PLA através de policondensação direta e em meio supercrítico (scCO2) e sua caracterização. As duas rotas buscam um processo limpo de síntese dos polímeros, livre de solvente orgânico. Além disso, procurou-se reduzir os custos de obtenção utilizando matéria-prima nacional (ácido láctico P.A. comercial). As reações de polimerização de PLLA realizada por policondensação e em scCO2 foram feitas em dois estágios. No primeiro estágio da síntese, para ambos os processos, o pré-polímero do ácido láctico foi obtido através de uma reação simples de condensação, com retirada de água, sob atmosfera inerte de N2 e 160ºC. Na segunda etapa, para a reação de policondensação, o polímero PLLA, foi obtido a partir do pré-polímero em uma temperatura de 140ºC e sob pressão reduzida por o tempo desejado (100h, 200h e 350h). As reações em meio scCO2 foram realizadas em um reator de aço inoxidável de 100 mL equipado com uma barra de agitação magnética, sob pressão de CO2 (80atm) e a 90ºC por 4 horas. Em ambas as reações de polimerização foram usadas complexos de estanho como catalisador. No início deste trabalho foram realizadas algumas reações utilizando o D, L-ácido láctico em scCO2. Também foi realizada a síntese do lactide e a polimerização deste por abertura de anel. Para efeito comparativo, também foi realizada a polimerização do lactide comercial. Os polímeros obtidos foram caracterizados por espectroscopia de Ressonância Magnética Nuclear de Próton (1HRMN), por espectroscopia de infravermelho (IV), por cromatografia de permeação em gel (GPC), por calorimetria exploratória de varredura (DSC) e pela técnica de análise termogravimétrica (TGA) A reação de policondensação revelou ser uma rota sintética excelente na obtenção de polímeros de PLA com peso molecular variados. A formação dos polímeros a partir do monômero de ácido láctico foi confirmada pelo desaparecimento da banda de OH em 3500 cm-1 no espectro de infravermelho. O espectro de 1H-RMN de ambos os polímeros, mostrou um sinal atribuído ao hidrogênio do grupo CH3 em 1,52 ppm e um sinal atribuído aos hidrogênios do grupo do CH em 5,16 ppm, que estão de acordo com a literatura. Os polímeros obtidos possuem potencial para uso clínico como materiais de implante.
Resumo:
Esta dissertação trata da configuração e forma urbana associada à segurança dos usuários, em área central urbana da cidade de Pelotas, RS. Considera especificamente relações entre ocorrência de crimes, níveis de satisfação do usuário com a segurança e aspectos contextuais como tipo habitacional, conexões visuais e funcionais, possibilidade de refúgio, territorialidade, iluminação noturna, potencial de movimento e aparência. Ainda são examinadas as relações envolvendo aspectos composicionais como gênero, faixa etária, além de interação social. A base teórico-conceitual utilizada compreende a área de estudos Ambiente e Comportamento, a qual considera o comportamento e as atitudes dos usuários como indicadores de desempenho espaciais; portanto, como aspectos principais na avaliação da qualidade do espaço urbano, incluindo a segurança. Dessa forma, diferentes métodos, tais como informações de arquivo, questionários, levantamento físico e análise sintática, são utilizados para identificar, analisar e avaliar as relações pré-estabelecidas. Nesta investigação, contata-se a existência de efeitos no comportamento e na satisfação dos usuários com a área urbana estudada; reconhece-se que estes avaliam o ambiente de acordo com a percepção de segurança. Os principais resultados sugerem que de fato aspectos da configuração e da forma urbana tendem a aumentar a vulnerabilidade quanto ao crime, influenciando a qualidade do espaço urbano e seu potencial de uso. A relevância do tema abordado é evidenciada pela necessidade de intervenções físicas e projetos urbanos para melhorar a segurança da população; assim sendo, o uso do espaço e a qualidade de vida urbana.
Resumo:
Pelo fato de algumas gramíneas nativas apresentarem um bom valor forrageiro objetivou-se com este trabalho caracterizar a dinâmica do crescimento de algumas espécies: Paspalum notatum ecótipos André da Rocha e Comum, P. pauciciliatum, P. lividum, e Axonopus catharinensis, relacionada com as suas características morfogenéticas. O solo foi corrigido de acordo com análise do solo e a adubação nitrogenada foi aplicada para otimizar a disponibilidade deste elemento. Os parâmetros estudados foram: produção de matéria seca verde (MSV), de lâminas foliares, bainhas foliares, colmo e inflorescências, material morto e outras espécies. O filocrono foi menor para o ecótipo André da Rocha no período de primavera e inverno-primavera, sendo o ecótipo Comum no período de verão. A duração de vida da folha, elongação e senescência foliar têm uma grande variabilidade entre os materiais, com grande influência da época do ano, notadamente o outono, quando todos materiais diminuem seu ritmo de crescimento. Axonopus pode ter maior período de acúmulo pois uma senescência significativa ocorre posteriormente aos materiais do gênero Paspalum e apresenta alta duração de vida da folha (> 1.000 GD). Produções ao redor de 10 t/ha de MSV foram alcançadas. Axonopus foi mais produtivo tanto em MSV quanto lâminas foliares. P. pauciciliatum teve um intenso florescimento que dificulta o manejo. P. notatum Comum permitiu o maior crescimento de espécies invasoras. Axonopus permite um maior período de acúmulo líquido de folhas e 400 GD é o limite máximo para o corte dos materiais do gênero Paspalum. Ocorre uma grande estacionalidade da produção nos materiais do gênero Paspalum. Todos os materiais avaliados apresentam um grande potencial de uso como espécie forrageira, podendo ser recomendadas para o plantio, porém com maiores cuidados no manejo do Pauciciliatum.
Resumo:
Informações sobre as condições de crescimento e expectativa de produção de culturas são importantes para a economia brasileira, visto que permitem um planejamento adequado da economia agrícola, contornando problemas de escassez e administrando com vantagens o excesso de produtos. Neste contexto, as tecnologias de sensoriamento remoto e geoprocessamento permitem a obtenção de informações precisas, em tempo hábil e com baixo custo. O presente trabalho teve como principal objetivo gerar subsídios para o aprimoramento do sistema atual de acompanhamento e previsão da safra de soja no Brasil, incorporando técnicas de sensoriamento remoto e geoprocessamento. Como objetivos específicos, buscou-se avaliar a acurácia da classificação digital de imagens LANDSAT para estimativa da área cultivada com soja e verificar a influência de aspectos regionais, tais como condições climáticas, de ocupação e de manejo, sobre a evolução temporal do índice de vegetação por diferença normalizada (NDVI), obtidos de imagens NOAA, visando o monitoramento da cultura da soja em projetos de previsão de safras. A estimativa de área cultivada com soja foi realizada através da classificação digital não supervisionada. Como verdade terrestre foram selecionadas 24 lavouras de soja, individualizadas na imagem com diferentes tamanhos e de diferentes regiões de uso e cobertura do solo, as quais foram quantificadas usando GPS de precisão topográfica. A verificação da acurácia da estimativa foi feita através de análise de regressão linear, sendo testada a significância do coeficiente de determinação. O monitoramento da cultura da soja foi realizada usando imagens decendiais de máximo NDVI. Nestas imagens, foram selecionadas 18 janelas amostrais, sendo extraídos os valores de NDVI e expressos na forma de perfis espectrais. Os resultados mostraram que a estimativa de área das lavouras cultivadas com soja, obtida através do processo de classificação digital não supervisionada em imagens LANDSAT, foi acurada e precisa para pequenas, médias e grandes lavouras, mostrando-se ser uma técnica eficiente para ser utilizada em projetos de previsão de safras de soja na região estudada. A evolução temporal do NDVI, obtida de imagens NOAA, apresentou sensibilidade quanto às diferenças de uso e cobertura do solo, demonstrando que as escalas espacial e temporal das imagens NOAA são adequadas para o acompanhamento em nível regional da evolução temporal da biomassa. Existe, ainda, potencial de uso de imagens NDVI para inferir sobre a área cultivada com soja em projetos de previsão de safras em escalas regionais, desde que a cultura seja predominante no pixel.
Resumo:
A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.
Resumo:
Uma grande evolução aconteceu no mundo com o surgimento da Internet. Ela causou um espantoso aumento das comunicações, que passaram a ser em tempo real e com uma abrangência mundial. Foi a democratização da informação. A Internet serve como uma grande ferramenta para as empresas, principalmente com a globalização dos mercados, fenômeno que cresce cada dia mais e atinge a todos. A globalização fez com que as organizações se tornassem globais, e a Internet funciona como um elo de ligação entre empresas, fornecedores e consumidores. Este trabalho consistiu na realização de uma pesquisa survey exploratória com o objetivo de verificar e descrever o uso potencial da Internet como ferramenta de auxílio à realização de negócios de caráter global, nas micro, pequenas e médias empresas de Porto Alegre. A amostra das empresas pesquisadas foi extraída do Trade Point Porto Alegre, por ser essa uma entidade que tem por objetivo auxiliar as empresas a realizarem operações globais. Com relação ao mercado global, o trabalho identificou que quase todas as empresas acreditam que ele tenha oportunidades de negócios. Os principais meios para entrar nesse mercado são a participação em feiras e rodadas de negócios, contato pessoal e o Trade Point. A Internet já está disseminada no meio empresarial, todas as empresas já a conhecem, e boa parte das empresas realizam operações que podem ser auxiliadas pela rede, como comunicação, promoção de produtos e acompanhamento pós-venda. Identificou-se que as microempresas são as que menos acreditam no mercado internacional, mas apontaram que a Internet pode ajudá-las em suas atividades. Já as pequenas empresas são as que atuam no mercado internacional e acreditam que a Internet possa ajudá-las em algumas atividades. Por fim, as médias empresas, também atuam no mercado internacional, principalmente com as exportações, e são as que já estão utilizando a Internet. O Trade Point se mostrou um serviço bem requisitado pelas empresas, principalmente as que atuam com o comércio internacional. As principais vantagens citadas foram a centralização de informações e a geração de novos negócios.
Resumo:
A geração de resíduos tem se mostrado um problema de preocupação mundial crescente. Muitos rejeitos, sejam industriais ou urbanos, muitas vezes acabam por poluir o meio-ambiente, causando problemas de armazenagem de certos materiais. Além disso, materiais alternativos a partir desses rejeitos podem ser mais baratos, apresentando muitas vezes características de desempenho melhores que os materiais convencionais. As siderúrgicas, em nível mundial, vêm enfrentando um problema comum, que consiste no que fazer para que a totalidade da escória gerada no refino do aço em aciarias elétricas ou à oxigênio tenha uma solução de aproveitamento melhor do que vem sendo feito atualmente. Na fabricação do aço as escorias são geradas em duas etapas: a primeira provém do chamado refino oxidante (forno elétrico a arco ou convertedor à oxigênio) e a segunda do refino redutor em processos de metalurgia na panela (forno-panela). Este trabalho tem como objetivo principal o de apontar potencialidades de uso da escória de aciaria elétrica, com destaque para a proveniente do forno-panela (escória do refino redutor), na indústria da construção civil através de testes em que a escória é utilizada, após moagem, como adição ao cimento Portland comum. Inicialmente foram realizados ensaios de viabilização para se testar a pozolanicidade, resistência à compressão, expansibilidade e profundidade de carbonatação de concretos gerados com diversas adições de escórias de aciaria elétrica. Comprovada a sua viabilidade partiu-se para os ensaios complementares do trabalho utilizando-se somente uma escória do refino redutor. Nesta segunda etapa foram realizados ensaios de caracterização de todos materiais estudados, ensaios de expansibilidade, ensaios mecânicos e de durabilidade dos concretos gerados com esta escória e ensaios de microscopia eletrônica de varredura e de difração de raios X do material. Após o estudo realizado comprovou-se ser perfeitamente viável a utilização de até 10% da escória do refino redutor (forno-panela- FP) como adição ao cimento para produção de concretos. Inclusive, independente do tempo de estocagem da escória, pode-se constatar melhorias no concreto produzido.
Resumo:
Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.
Resumo:
O prognóstico das crianças com tumores sólidos malignos recidivados ou refratários permanece desfavorável apesar dos avanços significativos alcançados nos últimos anos em Oncologia Pediátrica. Estudos visando identificar opções terapêuticas mais eficazes torna-se, portanto, de fundamental importância para estes pacientes. Existem evidências na literatura que demonstram que as drogas utilizadas neste estudo tem, quando usadas isoladamente ou em combinação, atividade em neoplasias malignas recidivadas ou refratárias. A Carboplatina (C) apresenta respostas objetivas em um grande número de pacientes pediátricos com câncer, assim como a Ifosfamida (I) e o Etoposide (E). A combinação destas 3 drogas, em um regime que passaremos a designar como ICE, tem potencial de aumentar os índices de resposta, embora aumente também os riscos de toxicidade. O objetivo principal deste estudo foi avaliar a resposta e a toxicidade deste regime em pacientes com tumores sólidos malignos recidivados ou refratários diagnosticados antes dos 18 anos de idade. O ICE consistiu de Ifosfamida na dose 3g/m2/dia IV por 3 dias consecutivos associada a mesna como uroprotetor, em doses equivalentes, Etoposide 160 mg/m2/dia IV por 3 dias consecutivos e Carboplatina 400 mg/m2/dia IV durante 2 dias. Os ciclos foram repetidos com intervalos de 21 a 28 dias. Foram revisados 21 prontuários de pacientes tratados com este regime, entre julho de 1996 a novembro de 2000. Todos os pacientes foram avaliados para toxicidade e 19 pacientes foram avaliados para resposta. Um total de 93 ciclos de ICE foram administrados. A média dos ciclos de ICE recebidos foi de 4,4 (1-8). Os pacientes receberam um máximo de 8 ciclos. Todos os pacientes incluídos no estudo, receberam no mínimo 1 esquema quimioterápico prévio. A taxa de resposta completa + parcial foi de 52,6%. Os efeitos tóxicos incluíram mielossupressão, febre, naúseas ou vômitos, nefrotoxicidade, leve disfunção hepática e neurotoxicidade. Em 78% dos ciclos houve neutropenia grau 4 (contagem de neutrófilos menor de 500/microlitro). Trombocitopenia graus 3 e 4 foi observado em 73,1% dos ciclos administrados e em 82% destes foram necessárias transfusões de plaquetas. Anemia grau 3 a 4 ocorreu em 61,2% dos ciclos e em 75 (80,6%) dos 93 ciclos administrados foi necessário transfusão de glóbulos vermelhos. Nenhum dos pacientes apresentou hematúria macroscópica e em 19,3 % dos ciclos houve hematúria microscópica. Duas crianças apresentaram nefrotoxicidade tubular renal. Em conclusão, este estudo mostra que o ICE é uma combinação ativa em crianças com tumores sólidos refratários/recidivados. Embora esteja associado a mielossupressão severa, a incidência de infecção encontra-se dentro de índices considerados aceitáveis para este grupo de pacientes. O dano tubular renal é a toxicidade não hematológica mais significativa e, portanto, recomenda-se cuidados e monitorização da função renal durante o período de tratamento. Embora o uso do ICE seja factível mesmo sem o uso de fatores de crescimento hematopoiéticos em pacientes previamente submetidos a quimioterapia, a maioria deles necessita terapia de suporte, principalmente de transfusões de hemoderivados e antimicrobianos. A identificação de pacientes e patologias com maior índice de respostas requer a realização de estudos no futuro com maior número de pacientes a nível multi-institucional.
Resumo:
Neste trabalho utilizou-se a técnica de HS-SPME/GC/ITMS para o estudo qualitativo dos compostos voláteis (VOC) emitidos pelas folhas de três espécies de Eucalyptus (E.): E. citriodora, E. dunnii e E. saligna tanto em laboratório como in situ, além do estudo da relação entre folhas de eucalipto e rãs Litoria ewingi. Para este fim, foram desenvolvidos métodos análiticos. Os compostos tentativamente como (E,E)-a-farseno, (E)-4,8-dimetil-1,3,7-nonatrieno (DMNT),(E,E)-4,8,12-trimetil-1,3,7,11-tridecatetraeno (TMTT),B-cariofileno,a-cariofileno, gerrmacreno D e (E,E,E)-3,7,11,15-tetrametil-1,3,6,10,14-hexadecapentaeno (TMHP) foram encontrados no headspace de folhas picadas de eucalipto, sendo que os três primeiros também foram nas emissões áreas de E. saligna in situ, não tendo sido encontrados nos óleos voláteis das mesmas árvores, obtidos por hidrodestilação. Nas amostragens in situ, foram observados dois tipos de perfis circadianos nas emissões voláteis, incluindo compostos como cis-, trans-óxido de rosa, trans-B-ocimeno, citronelal, citronelol, entre outros. O comportamento dos compostos citados sugere que os mesmos sejam semioquímicos. Os resultados obtidos com HS-SPME (PDMS/DVB) mostraram que esta é uma ferramenta analítica relativamente simples, que preserva a vida devido ao seu caráter não invasivo, de mínima pertubação do sistema vivo sob amostragem e que, devido a sua rapidez (1 min), permite o acompanhamento de alteraçãoes rápidas provocadas por processos endógenos e/ou exógenos nos seres vivos. O monitoramento da emissão de voláteis de folhas in situ durante 8 a 10 h por vários dias consecutivos, e a extração dos voláteis de rãs vivas sob estresse, submetidas a diferentes condições de dieta e meio ambiente, exemplificam o potencial desta técnica, que abre novos horizontes na investigação de voláteis de seres vivos.
Resumo:
A poluição do meio ambiente por metais pesados apresenta um problema grave devido a sua alta toxicidade e a capacidade de bioacumulação. Tendo em vista o vasto uso do sulfato de cobre em algumas indústrias e nas lavouras do Rio Grande do Sul, e a importância de se avaliar possíveis danos causados nos seres vivos, o objetivo deste trabalho foi determinar o potencial tóxico do sulfato de cobre em Planária e verificar a utilidade deste organismo para biomonitoramento ambiental. O sulfato de cobre induziu dano dose-dependente no DNA após exposição aguda e crônica, sendo que o efeito observado é a primeira evidência da genotoxicidade do cobre detectada com o Teste Cometa. A interferência dos íons de cobre com o processo de reparo do dano no DNA induzido pelo MMS sugere que o cobre poderia modular os efeitos genotóxicos associados com a exposição às misturas complexas no meio ambiente. Monitoramento da cinética do reparo no DNA em planárias mostrou reparo mais lento in vivo em comparação aos dados obtidos em cultura de células, acentuando a importância dos testes in vivo na avaliação do risco associado com a exposição adversa. O conteúdo da proteína hsp60 em planária Dugesia schubarti não foi alterado em resultado da exposição ao cobre, mostrando que não é um parâmetro adequado para avaliação da contaminação química. Animais não tratados apresentaram quantidades detectáveis de proteína hsp60, revelando um alto nível basal de expressão desta proteína que poderia mascarar possível indução em resultado da exposição química. Contudo, indução da hsp60 foi observada após choque térmico. A atividade da catalase em planária foi significativamente induzida após exposição às baixas concentrações de sulfato de cobre, mostrando-se um indicador sensível para exposição aguda ao cobre e sugerindo possível uso deste ensaio em estudos com outros agentes oxidantes. A atividade relativamente alta da catalase, detectada nas planárias não tratadas, provavelmente está relacionada com o alto nível de oxigênio dissolvido no seu habitat. A exposição das planárias ao mutagênico conhecido MMS, in vivo, induziu quebras no DNA, de maneira dose-dependente, em concentrações similares com as da referência em células de mamíferos, comprovando a sensibilidade do sistema utilizado. A planária se mostrou também um organismo bastante apropriado para a detecção de danos no DNA utilizando-se o Teste Cometa, sugerindo que poderia ser útil para o monitoromento de efeitos genotóxicos induzidos por agentes químicos no ambiente aquático. Os resultados apresentados neste estudo revelam o potencial tóxico e genotóxico do sulfato de cobre em planárias e também sugerem que este organismo-teste pode ser considerado um sistema valioso para avaliação da contaminação química em estudos ambientais.
Resumo:
Apresenta-se neste estudo o potencial de recuperação de informação em C&T nas bases de dados nacionais e internacionais na grande área das Ciências da Saúde, na área da Medicina e na pesquisa médica em Câncer no Brasil. Esta capacitação científica instalada foi hierarquizada geográfica e institucionalmente usando como parâmetro o conceito de mérito científico fornecido pelo próprio sistema de C&T brasileiro. Os dados foram complementados pela análise da produção científica para identificar o grau de inserção internacional da pesquisa médica em Câncer no Brasil. Para tanto foram incorporadas informações das bases de dados do Institute for Scientific Information. Pode-se concluir que a grande área das Ciências da Saúde é a maior em contingente de pesquisa no Brasil, sendo a Medicina a área numericamente predominante. Na pesquisa médica em Câncer constatou-se que existem apenas dois cursos de pós-graduação diretamente relacionados com a formação de recursos humanos neste tema de pesquisa, 569 grupos de pesquisa (3,8% do total do país), 785 pesquisadores doutores, dos quais somente 153 são pesquisadores com bolsa de produtividade em pesquisa do CNPq (1,7% do total do país) No entanto, a produção científica, apesar de pouco expressiva do ponto de vista quantitativo, apresenta uma inserção internacional qualificada, sendo utilizada por outros pesquisadores com um elevado percentual, 84% de citações dos artigos brasileiros produzidos entre 1998-2002. Conclui-se, portanto, que apesar de não esgotar completamente as muitas especificidades do tema investigado, as informações disponíveis nas bases de dados nacionais e internacionais podem apontar caminhos para a investigação de tendências significativas da comunidade científica em todas as áreas do conhecimento ou temas de pesquisa, conforme os modos de recuperação apresentados. Através da interpretação criteriosa a partir de estudos continuados nessas bases, como é o caso deste trabalho, é possível utilizar a informação em C&T como subsídio para o planejamento de políticas de CT&I no Brasil.
Resumo:
O presente trabalho descreve estudos relativos à validação e aperfeiçoamento de uma nova técnica de adsorção em flocos de materiais adsorventes pulverizados e seu uso em reator de leito expandido/fluidizado. A técnica consiste na utilização de polímeros aquo-solúveis para a floculação de suspensões aquosas de materiais adsorventes pulverizados, baseando-se no baixo custo dos mesmos e no fato de que a capacidade de adsorção dos flocos resultantes não é afetada significativamente pelo polímero floculante. O uso da técnica em reator de leito expandido/fluidizado possibilita ainda a vantagem de união dos processos de adsorção e separação sólido-líquido em uma única etapa. Os estudos foram realizados a partir da floculação de carvão ativado e zeólita natural pulverizados, separados e em mistura, para a adsorção de fenol e nitrogênio amoniacal (separados e misturados). Foi realizada uma adequada caracterização dos materiais particulados, incluindo a determinação de distribuição granulométrica, área superficial específica, potencial zeta, dentre outros. Estudos em escala de bancada foram realizados com ambos os poluentes e materiais adsorventes a fim de obter parâmetros de processo (capacidade de adsorção, cinética e concentração de floculante). Estudos em escala semipiloto com um reator de leito expandido/fluidizado de geometria cilíndrico-cônica foram realizados para estudar a adsorção dos poluentes em leito de flocos dos materiais adsorventes (separados e misturados), assim como a regeneração/reciclo do mesmo. A caracterização dos materiais apresentou propriedades semelhantes para ambos (distribuição granulométrica, potencial zeta) e outras distintas para cada um deles (massa específica, área superficial específica) A capacidade de troca catiônica da zeólita natural foi determinada em 1,02 meq NH4 +.g-1 (após homoionização com NaCl). Este material, proveniente do Chile, mostrou um significativo potencial de aplicação como adsorvente de corantes (como o azul de metileno) e, principalmente, de nitrogênio amoniacal. O floculante utilizado na geração dos flocos adsorventes, separados e misturados, foi do tipo poliacrilamida catiônica e sua concentração ótima foi de 4 e 5 mg.g-1, respectivamente. Os resultados obtidos nos estudos em escala de bancada (batelada) mostraram elevada cinética (valor médio de 0,3 min-1) e alta capacidade (valor médio de 13,4 mg NH3-N.g-1) em pH neutro (aproximadamente 6) para a adsorção de nitrogênio amoniacal em zeólita natural pulverizada e floculada. No caso da adsorção de fenol em carvão ativado pulverizado e floculado, foram obtidas uma alta cinética (valor médio de 0,8 min-1) e elevada capacidade (156 mg.g-1). Os dados cinéticos e de equilíbrio foram adequadamente descritos por um modelo cinético para reações reversíveis de primeira ordem e pelas isotermas de Langmuir e Freundlich, respectivamente. Tanto a cinética quanto a capacidade de adsorção não mostraram-se afetadas de forma significativa pelo uso do polímero floculante, sendo observada uma ausência de sinergismo na adsorção dos poluentes devido à mistura dos dois materiais adsorventes, tanto pulverizados quanto floculados. Os resultados obtidos nos estudos em escala semipiloto validaram a utilização de flocos de zeólita natural e carvão ativado pulverizados (não- misturados) em reator de leito expandido/fluidizado na adsorção de nitrogênio amoniacal (11 mg NH3-N.g-1) e fenol (132 mg.g-1), respectivamente, dentro das condições experimentais estabelecidas (taxas de aplicação de 38 e 19 m.h-1, respectivamente) A regeneração/reciclo do leito saturado de flocos mostrou-se viável para o caso da adsorção de nitrogênio amoniacal em zeólita natural, sendo insatisfatória para o leito de carvão ativado saturado em fenol. O uso de leitos mistos mostrou-se eficaz e com vantagens tais como a adsorção de múltiplos poluentes em uma única etapa e a possibilidade de aumento da taxa de aplicação no uso de materiais adsorventes menos densos (carvão ativado) misturados com materiais adsorventes de maior massa específica (zeólita natural). Uma pré-avaliação dos custos operacionais envolvidos na técnica para uso em reator de leito expandido/fluidizado foi realizada, sendo estimados entre 0,32 e 1,48 US$.m-3 (volume de solução sintética de poluente tratada até o ponto de exaustão do leito). Finalmente, são discutidas as potencialidades, vantagens/desvantagens e a viabilidade da nova técnica como processo físico-químico alternativo de adsorção em materiais adsorventes pulverizados.
Resumo:
Nos últimos anos, os profissionais que atuam na área da engenharia rodoviária têm se dedicado à busca de tratamentos e soluções de engenharia que conduzam a melhores condições de segurança na malha viária. Entre as soluções de engenharia capazes de contribuir de forma efetiva para a segurança viária, estão as Guias Sonoras. As Guias Sonoras são ranhuras ou saliências que marcam o pavimento das rodovias alertando motoristas desatentos. Este trabalho teve por objetivo sistematizar os conhecimentos existentes sobre o uso de Guias Sonoras no país e no mundo, afim de divulgar um dispositivo de baixo custo e de simples aplicação e manutenção. O estudo aborda questões referentes ao custo do dispositivo, aos seus aspectos construtivos e à sua durabilidade, bem como o seu potencial na redução de acidentes. Foi realizada um ampla pesquisa bibliográfica e um estudo de caso. No estudo de caso realizado, buscou-se (a) verificar a existência de locais com características geométricas que resultam em uma maior propensão à ocorrência de acidentes do tipo saída de pista, principal evento evitável pelo uso das Guias Sonoras,e (b) comparar os custos de implantação do dispositivo com os custos dos acidentes evitáveis pelas Guias Sonoras. O estudo de caso mostrou que acidentes do tipo saída de pista representam aproximadamente 30% do total de acidentes de uma rodovia típica. Esse percentual é compatível com o verificado na revisão bibliográfica. A análise dos segmentos nos quais este tipo de acidente ocorria de forma mais freqüente revelou uma tendência à sua ocorrência em aclives/declives e/ou curvas. De acordo com o comparativo feito entre custos dos acidentes e custos de implantação de Guias Sonoras, o custo de um acidente apenas com feridos equivale à execução de 3,8 quilômetros de Guias Sonoras nos acostamentos da rodovia. Já, o custo de um acidente com vítima fatal equivale à execução de 31 quilômetros de Guias Sonoras. Adicionalmente, constatou-se que o investimento necessário para a implantação do dispositivo nos acostamentos do trecho analisado seria menor do que os custos de acidentes de saída de pista ocorridos no trecho no período de 3 anos.
Resumo:
Este trabalho avalia o potencial de simuladores de tráfego na estimativa das emissões veiculares. Os simuladores de tráfego em conjunto com modelos de emissões são utilizados para execução de inventários de emissões. Os inventários de emissões são importantes para a avaliação da eficácia das políticas de transporte que visem redução das emissões veiculares. Erros nesta avaliação podem levar à adoção de políticas ineficientes. Por esta razão, é fundamental a compreensão da lógica destes modelos para a correta análise dos resultados gerados. Através de testes de sensibilidade avaliou-se o impacto da variação de três aspectos intrínsecos aos modelos de simulação na quantificação das emissões veiculares: (i) os parâmetros de entrada utilizados para calibração; (ii) a lógica dos modelos de progressão longitudinal; e (iii) o modelo de emissões incorporado ao simulador. Em um estudo de caso, avaliou-se o impacto de uma melhoria de fluxo de tráfego na geração das emissões com o uso de simuladores de tráfego frente às abordagens tradicionais. O trabalho demonstra que a definição dos parâmetros relativos à aceleração, bem como a modelagem adequada da progressão longitudinal dos veículos, possuem papel preponderante na correta quantificação das emissões. Em segundo plano, o grau de sofisticação do modelo de emissões incorporado também exerce influência na magnitude dos resultados. Por fim, o estudo de caso demonstrou a vantagem do uso de micro-simuladores na quantificação das emissões de projetos de melhorias de fluxo de tráfego frente aos métodos tradicionais, ainda que pese a maior dificuldade na calibração de modelos microscópicos.