968 resultados para Tipo difusão-reação
Resumo:
Os erros inatos do metabolismo (EIM) constituem um grupo de doenças genéticas causadas pela deficiência ou ausência de uma proteína, geralmente uma enzima. A hiperargininemia é um erro inato do ciclo da uréia causado pela deficiência de arginase, enzima que converte a arginina em ornitina e uréia. O bloqueio desta reação resulta no acúmulo tecidual e plasmático de arginina e seus metabólitos, os compostos guanidínicos. As manifestações clínicas desta doença diferem substancialmente das demais doenças metabólicas do ciclo da uréia. Seus principais sintomas, que manifestam-se progressivamente, são caracterizados por espasticidade, epilepsia e retardo mental. A correlação entre o metabolismo da arginina e do óxido nítrico ocorre no chamado ciclo arginina-citrulina. A arginina é o substrato para a síntese de óxido nítrico pela ação da enzima óxido nítrico sintetase (ONS). Como os pacientes hiperargininêmicos apresentam altos níveis de arginina no plasma e tecidos, é provável que, devido ao excesso deste substrato, ocorra um aumento na síntese de óxido nítrico. O óxido nítrico em concentrações elevadas está associado à produção de radicais livres, neurotoxicidade e inibição da enzima Na+,K+-ATPase. A Na+,K+-ATPase é uma enzima fundamental ao funcionamento normal do sistema nervoso central (SNC), pois regula a transmissão do impulso nervoso, o volume celular e o transporte de moléculas ligadas ao cotransporte de Na+, tais como aminoácidos, glicose e neurotransmissores. A inibição da atividade da Na+,K+-ATPase nos sítios pré-sinápticos resulta na inibição da recaptação de glutamato, bem como na estimulação de sua liberação. A inibição desta enzima também tem sido associada a diversas neuropatologias. A Na+,K+-ATPase também está envolvida na LTP (long term potentiation – potenciação de longa duração), que é um tipo de neuroplasticidade celular que provoca alterações nas cascatas bioquímicas no SNC, que são, muitas vezes, idênticas àquelas que ocorrem durante o processo de formação da memória. Assim, acredita-se que a LTP seja um dos diversos mecanismos bioquímicos importantes para a formação da memória. Neste estudo investigamos o efeito in vivo da administração aguda de arginina, L-NAME (um potente inibidor da ONS) e a co-administração de Arg + L-NAME sobre a atividade da Na+,K+-ATPase de membrana plasmática sináptica de hipocampo de ratos adultos e sobre testes 6 comportamentais utilizados para avaliar o aprendizado e memória: campo aberto e esquiva inibitória. Os resultados obtidos demonstraram que a arginina inibiu significativamente a atividade da enzima Na+,K+-ATPase de membrana plasmática sináptica de hipocampo de ratos. A administração de L-NAME não alterou a atividade da enzima, mas preveniu a diminuição da atividade da Na+,K+-ATPase causada pela arginina. Nos experimentos de comportamento foram avaliados o aprendizado, a consolidação e a evocação da memória de longa duração pela administração das soluções em três momentos diferentes. A arginina diminuiu o desempenho do teste de esquiva inibitória nos três momentos, o L-NAME isoladamente não alterou o comportamento dos animais, mas quando co-administrado com a arginina aumentou a capacidade de memorização desta tarefa. Estes resultados indicam que a administração de arginina in vivo reduz tanto a atividade da Na+,K+-ATPase como a modulação da memória em ratos, e que isso ocorreu, provavelmente, pelo aumento da síntese de óxido nítrico. Assumindo a possibilidade de que isso possa ocorrer em pacientes com hiperargininemia, os resultados obtidos podem ser relevantes para explicar, pelo menos em parte, a disfunção neurológica associada a essa doença.
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
Devido aos elevados custos com manutenção e reparo de estruturas de concreto armado, há uma preocupação crescente com sua durabilidade. Entre os principais agentes de degradação da estrutura por corrosão de armadura encontra-se o íon cloreto, que pode ser incorporado ao concreto ou difundir-se através da camada de cobrimento até a armadura. Neste caso é importante que o concreto dificulte ou impeça a penetração do agente agressivo até a armadura, adequando-se às condições de permeabilidade necessárias ao material. Existem diversas formas de alterar a estrutura interna do concreto e, conseqüentemente, a difusão de cloretos para o seu interior. Este trabalho refere-se ao estudo do comportamento da difusão de cloretos em diferentes concretos variando a relação água/aglomerante, teor de adição de sílica ativa, temperatura e tempo de cura. Desta forma utilizou-se o ensaio acelerado de penetração de cloretos (ASTM C 1202) e migração de cloretos (ANDRADE, 1993), avaliando os concretos quanto à resistência à penetração de íons. Os resultados indicaram que a difusão de cloretos diminui em até 70% com o decréscimo da relação água/aglomerante de 0,75 para 0,28, em até 60% com o aumento do teor de sílica ativa utilizado (até 20%), e reduz em até 50% com o aumento da temperatura de exposição (5o C para 40o C) durante a cura e com a evolução da idade avaliada de 7 a 91 dias.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
Seleção recorrente é um método indicado para o melhoramento de características quantitativas, como rendimento de grãos em aveia. Consiste em selecionar e recombinar de forma cíclica genótipos superiores de uma população geneticamente variável. Sua implantação depende do estabelecimento de uma estratégia que permita a condução das atividades inerentes ao método de forma compatível com a estrutura física e de mão-de-obra do programa. Este trabalho teve como objetivos investigar a possibilidade do uso de uma unidade experimental de tamanho reduzido para a condução das avaliações e seleção, indicar a geração de autofecundação a ser submetida à seleção e caracterizar a variabilidade dos genitores de uma população sintetizada pelo cruzamento dialélico de dez genótipos de aveia . Dados de três anos de ensaios mostram que unidades experimentais constituídas de uma única linha de três metros de comprimento reproduzem as classificações dos genótipos obtidas em parcelas de tamanho padrão para ciclo, estatura e rendimento de grãos. No entanto, o uso posterior de linhas como unidade experimental em ensaios que ocuparam uma área muito extensa, demonstrou que a variação de ambiente reduziu muito a eficiência da seleção. A avaliação da base genética para rendimento de grãos de aveia indica uma forte determinação de efeitos não aditivos. Nesta situação, a seleção em gerações mais avançadas de homozigose são mais adequadas. Porém, a seleção em geração F4 não apresentou vantagens sobre a realizada em F2 devido a grande variação de ambiente relacionada ao tamanho da área necessária para a condução dos ensaios. A estrutura da variabilidade fenotípica dos genitores confirma o caráter complementar dos genótipos em relação às características agronômicas e de adaptação pretendidas na população..
Resumo:
A expansão do novo paradigma de gestão e organização do trabalho vem desencadeando um movimento dentre as empresas brasileiras no sentido de modernizar seus sistemas produtivos e de gestão, caracterizando uma época de transformações no ambiente organizacional. Nesse sentido, as práticas salariais também estão passando por um processo de transformação a medida que procuram adequar a remuneração às novas exigências do trabalhador frente ao paradigma da flexibilidade. Num ambiente em que o perfil do trabalho implica em envolvimento do trabalhador a fim de que tome iniciativas do tipo controle da qualidade, identificação de defeitos, participação em grupos de melhorias e outras formas de ação que requerem disposição para participar, ressalta-se a questão do comprometimento. Na busca de princípios e práticas de Gestão de Recursos Humanos que contemplem esta nova “exigência”, os Planos de Participação nos Lucros e Resultados no Brasil vem paulatinamente conquistando espaços. Como ainda são raros os estudos sobre o assunto no nosso país, este trabalho apresenta resultados de uma pesquisa realizada em quatro indústrias no Rio Grande do Sul, sobre suas experiências na prática de Planos de Participação nos Lucros ou Resultados. A metodologia utilizada foi de natureza qualitativa através de estudo exploratório-descritivo. As entrevistas procuraram verificar como as empresas estudadas estão utilizando esta estratégia de gestão de Recursos Humanos e mostrar os reflexos desta estratégia sobre os trabalhadores. Nosso objetivo nesse estudo se orienta por uma tentativa de identificar tendências, características e sistemáticas desses Planos, mesmo por que seria muito prematuro pretender conclusões mais definitivas acerca da difusão desta estratégia para o caso brasileiro.
Resumo:
O presente trabalho é uma análise experimental que procura investigar os efeitos dos fatores carga por eixo, pressão de inflação e tipo de pneu sobre o desempenho de pavimentos. Os dados e informações existentes sobre o quadro de cargas por eixo praticada pela frota de veículos pesados é razoável. A ação conjunta dos referidos fatores é ainda uma questão pouco explorada. Assim, para compensar a escassez de dados sobre pressão de inflação e tipo de construção de pneus utilizados na frota de carga, programou-se uma pesquisa de campo na rodovia estadual RS/240. As informações oriundas da pesquisa demonstram que há um acréscimo generalizado no valor da pressão dos pneus e um aumento de uso dos pneus de fabricação radial em relação aos pneus convencionais. Os dados de campo subsidiaram a programação de um experimento fatorial cruzado executado na Área de Pesquisas e Testes de Pavimentos da UFRGS/DAER. A variação dos níveis dos fatores deu-se através de um simulador linear de tráfego atuando sobre uma pista experimental com 20 m de comprimento por 3,5 m de largura. Tendo como resposta estrutural do pavimento a máxima deflexão superficial recuperável medida com uma viga Benkelmam, determinou-se como significantes os efeitos dos fatores carga por eixo e pressão de enchimento dos pneus. Os cálculos estatísticos indicam também que não há diferenças significativas entre os pneus tipo 9.00R20 e 9.00x20 e que todas interações não exercem efeitos significativos sobre a variável de resposta. Em seqüência, determinaram-se as áreas de contato do rodado duplo do simulador de tráfego com a superfície do pavimento ensaiado para as combinações dos níveis dos fatores. Pode-se, então, comparar área de contato medida com área circular calculada, considerada em muitos modelos de dimensionamento de pavimentos. Relacionou-se a variação da pressão de contato com a deflexão recuperável e procedeu-se uma comparação da mesma com a pressão de inflação nominal dos pneus. Apresenta-se um modelo de análise do desempenho do pavimento em função da carga por eixo e da pressão de inflação, nos limites do experimento. Os dados decorrentes do experimento viabilizaram a determinação dos Fatores de Equivalência de Cargas para os níveis dos fatores, considerando-se o pavimento ensaiado. Avaliou-se, via evolução das deflexões e dos Fatores de Equivalência de Cargas, a redução da vida do pavimento, obtendo-se, para a combinação de níveis mais críticos de carregamento, resultados significativos de até 88 % de redução. Propõe-se, por último, uma formulação para o Fator de Equivalência de Cargas que considere também a ação da pressão de inflação.
Resumo:
A hiperprolinemia tipo II é um erro inato do metabolismo de aminoácido causado pela deficiência na atividade da Ä1 pirrolino-5-carboxilato desidrogenase. O bloqueio dessa reação resulta no acúmulo tecidual de prolina. A doença caracteriza-se fundamentalmente por epilepsia, convulsões e um grau variável de retardo mental, cuja etiopatogenia ainda é desconhecida. No tecido nervoso, a Na+, K+ - ATPase controla o ambiente iônico relacionado com a atividade neuronal, regulando o volume celular, o fluxo de íons e o transporte de moléculas ligadas ao transporte de Na+, tais como, aminoácidos, neurotransmissores e glicose. Evidências na literatura mostram que recém nascidos humanos com baixos níveis de Na+, K+ -ATPase cerebral apresentam epilepsia e degeneração espongiforme. Alterações na atividade desta enzima têm sido associadas a várias doenças que afetam o sistema nervoso central, como isquemia cerebral e doença de Parkinson. Considerando que a inibição da Na+, K+ - ATPase por ouabaína tem sido associada com liberação de neurotransmissores, incluindo glutamato, em uma variedade de preparações neuronais, e que alguns autores sugerem que o efeito da prolina sobre a sinapse glutamatérgica possa ser, pelo menos em parte, responsável pelos sintomas neurológicos encontrados nos pacientes com hiperprolinemia, no presente trabalho verificamos efeitos dos modelos experimentais agudo e crônico de hiperprolinemia tipo II sobre a atividade da Na+, K+ - ATPase de membrana plasmática sináptica de córtex cerebral e hipocampo de ratos. No modelo crônico, a prolina foi administrada a ratos Wistar duas vezes ao dia do 6o ao 28o dia de vida, enquanto que no modelo agudo os animais, com 15 dias de vida, receberam uma única injeção de prolina e foram sacrificados 1hora após a administração da droga. Os animais tratados crônicamente com prolina não apresentaram alterações significativas no peso corporal, do encéfalo, do hipocampo e do córtex cerebral, bem como nas quantidades de proteínas do homogenizado cerebral e da membrana plasmática sináptica de córtex cerebral e hipocampo. Nossos resultados mostraram uma diminuição significativa na atividade da Na+, K+ - ATPase de membrana plasmática sináptica de cérebro de animais tratados aguda e crônicamente com prolina. Foram também testados os efeitos in vitro da prolina e do glutamato sobre a atividade da Na+, K+- ATPase. Os resultados mostraram que os dois aminoácidos, nas concentrações de 1,0 e 2,0 mM, inibiram significativamente a atividade da enzima. O estudo da interação cinética entre prolina e glutamato, sugere a existência de um sítio único de ligação na Na+, K+ - ATPase para os dois aminoácidos. É possível que a inibição na atividade da Na+, K+- ATPase possa estar envolvida nos mecanismos pelos quais a prolina é neurotóxica. Acreditamos que nossos resultados possam contribuir, pelo menos em parte, na compreensão da disfunção neurológica encontrada em pacientes com hiperprolinemia tipo II.
Resumo:
O presente estudo relata a composição, transporte atômico, estabilidade termodinâmica e as reações químicas durante tratamentos térmicos em atmosfera de argônio e oxigênio, de filmes ultrafinos de HfO2 depositados pelo método de deposição química de organometálicos na fase vapor (MOCVD) sobre Si, contendo uma camada interfacial oxinitretada em NO (óxido nítrico). A caracterização foi realizada utilizando-se técnicas de análise por feixes de íons e espectroscopia de fotoelétrons excitados por raios-X (XPS). Também foram realizadas medidas elétricas sobre os filmes. Os estudos indicaram que esta estrutura é essencialmente estável aos tratamentos térmicos quando é feito um pré-tratamento térmico em atmosfera inerte de argônio, antes de tratamento em atmosfera reativa de oxigênio, exibindo uma maior resistência à incorporação de oxigênio do que quando foi diretamente exposta à atmosfera de oxigênio. Tal estabilidade é atribuída a um sinergismo entre as propriedades do sistema HfO2/Si e a barreira à difusão de oxigênio constituída pela camada interfacial oxinitretada. A composição química dos filmes após os tratamentos térmicos é bastante complexa, indicando que a interface entre o filme e o substrato tem uma composição do tipo HfSixOyNz. Foi observada a migração de Hf para dentro do substrato de Si, podendo esta ser a causa de degradação das características elétricas do filme.
Resumo:
Desde que foi introduzido pela primeira vez na Nova Zelândia, em março de 1990, o regime de metas de inflação tem sido objeto de crescente interesse na literatura econômica. Seguindo a Nova Zelândia, inúmeros outros países passaram a adotar metas de inflação como regime de política monetária, como, por exemplo, o Canadá, Reino Unido, Suécia, Finlândia, Espanha, Chile, e Brasil. Por se tratar de um regime relativamente novo, surgiram na literatura diversos trabalhos com o propósito de avaliar este regime, tanto de uma perspectiva teórica quanto empírica. O objetivo principal deste trabalho é implementar alguns testes iniciais sobre a efetividade do regime de metas de inflação no Brasil. Para alcançar este objetivo, utilizamos duas abordagens principais. Em primeiro lugar, estimamos uma função de reação do tipo Taylor, e olhamos para mudanças nos pesos relativos sobre a atividade real e sobre a inflação. Na segunda abordagem, obtemos dois modelos Auto-Regressivos Vetoriais (VAR), um restrito e outro irrestrito. Estes dois modelos foram utilizados num exercício de previsão fora da amostra (out-of-sample). Os resultados, embora ainda preliminares produzidos pelos poucos dados disponíveis, permitem-nos concluir que o impacto inicial de metas de inflação foi positivo. Nossos resultados indicam que metas de inflação foi um mecanismo importante para manter a estabilidade de preços obtida a partir do Plano Real, mesmo num contexto de acentuada desvalorização cambial.
Resumo:
O objetivo deste estudo foi analisar o papel do polimorfismo de I/D do gene da Enzima Conversora de Angiotensina (ECA) e o polimorfismo K121Q da PC-1 nas modificações das taxas de filtração glomerular (TFG), excreção urinária de albumina (EUA) e pressão arterial em uma coorte de pacientes diabéticos tipo 1 normoalbuminúricos (EUA<20μg/min) em um estudo com seguimento de 10,2 ± 2,0anos (6,5 a 13,3 anos). A EUA (imunoturbidimetria), TFG (técnica da injeção única de 51Cr-EDTA), HbA1c (cromatografia de troca iônica) e pressão arterial foram medidas no início do estudo e a intervalos de 1,7 ± 0,6 anos. O polimorfismo I/D e K121Q foram determinados através da PCR e restrição enzimática. Onze pacientes apresentaram o genótipo II, 13 o ID e 6 apresentaram o genótipo DD. Pacientes com o alelo D (ID/DD) desenvolveram mais freqüentemente hipertensão arterial e retinopatia diabética. Os 3 pacientes do estudo que desenvolveram nefropatia diabética apresentaram o alelo D. Nos pacientes ID/DD (n=19) ocorreu maior redução da TFG quando comparados com os pacientes II (n=11) (-0,39 ± 0,29 vs – 0,12 ± 0,37 ml/min/mês; P=0,035). A presença do alelo D, em análise de regressão múltipla linear (R2=0,15; F=4,92; P=0,035) foi o único fator associado à redução da TFG (-0,29 ± 0,34 ml/min/mês; P<0,05). Já o aumento da EUA (log EUA = 0,0275 ± 0,042 μg/min/mês; P=0,002) foi associado somente aos níveis iniciais de EUA (R2=0,17; F=5,72; P=0,024). Um aumento significativo (P<0,05) no desenvolvimento de hipertensão arterial e de novos casos de retinopatia diabética foi observado somente nos pacientes com os genótipos ID/DD. Vinte e dois pacientes apresentaram genótipo KK, 7 KQ e 1 apresentou genótipo QQ. Pacientes com os genótipos KQ/QQ apresentaram um aumento significativo (P=0,045) de novos casos de retinopatia diabética. Em conclusão a presença do alelo D nesta amostra de pacientes DM tipo 1 normoalbuminúricos e normotensos está associada com aumento na proporção de complicações microvasculares e hipertensão arterial.
Resumo:
Filmes finos de Fe-Zr na geometria de multicamadas foram tratados termicamente variando-se a temperatura (350ºC e 500ºC) e o tempo de tratamento (10min a 72h). As fases formadas por Reação de Estado Sólido (RES) em multicamadas com três composições totais diferentes (Fe0.67Zr0.33, Fe0.50Zr0.50, Fe0.33Zr0.67) foram analisadas por espectroscopia de retroespalhamento de Rutherford, difratometria de raios-X e espectroscopia Mössbauer. Verificou-se que a primeira fase formada é sempre uma fase amorfa de composição aproximada 50%at Fe. A fração Mössbauer desta fase, em função do tempo de tratamento térmico a 350ºC, foi traçada para as três composições. Também foram identificadas as fases cristalinas Fe2Zr e FeZr3. A seqüência de fases formadas revelou depender da composição da multicamada como-depositada e também da temperatura de tratamento. O diagrama esquemático de Energia Livre de Gibbs foi proposto de forma a comportar os resultados experimentais. Um modelo de crescimento planar de fases reagidas na interface de pares de reação foi aplicado às condições do crescimento multifásico observadas no presente trabalho.
Resumo:
Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.
Resumo:
O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.
Resumo:
O descarte no solo é uma alternativa viável de disposição final e aproveitamento agrícola de vários resíduos industriais. Com o objetivo geral de avaliar os efeitos do resíduo alcalino “dregs+grits” (DG) como corretivo de acidez e em atributos de solo, plantas e água de percolação, foram conduzidos dois experimentos em vasos, a céu aberto. No primeiro experimento, em vasos de 2 L de um Latossolo Vermelho distrófico (camada de 0-20 cm), avaliaram-se as frações granulométricas do DG (< 0,30; 0,30-0,84; 0,84–2,00; >2,00 mm) e o DG integral, em doses baseadas no valor de neutralização (VN); DG integral com base no índice PRNT; mistura de CaCO3+MgCO3 e testemunha sem correção. No segundo experimento, em colunas de PVC, contendo as camadas de 0-20 e 20-50 cm de três solos (Latossolo Vermelho distrófico, Argissolo Vermelho distrófico arênico e Argissolo Vermelho distrófico típico), foram avaliadas doses de DG de 0, 0,5; 1,0 e 2,0 vezes a necessidade de calagem para atingir pH 6,0 para cada solo, além de CaCO3+MgCO3 e dose DG 1,0 sem adubação. No primeiro experimento, após 180 dias, todas as frações proporcionaram valores de pH superiores a 6,0, com reação mais rápida das frações mais finas e maior efeito residual das frações mais grossas. O índice PRNT se mostrou inadequado para definição de doses do resíduo, sendo o VN mais apropriado No segundo experimento, os efeitos imediatos e residuais sobre atributos relacionados à acidez do solo, avaliados até 240 dias, aumentaram com as doses do resíduo, com resposta dependente do tipo de solo. A concentração de Na+, mesmo com a dose 2,0 DG, não afetou a estrutura física dos solos, enquanto os teores de metais pesados no solo, plantas e águas de percolação não apresentaram diferenças entre os tratamentos. O resíduo DG pode ser usado como corretivo de acidez do solo, não apresentando efeitos significativos em atributos de solo, planta e água relacionados à qualidade ambiental.