26 resultados para Clássicos
Resumo:
Para a análise estática e dinâmica, linear e não-linear de placas, cascas e vigas, implementa-se neste trabalho o elemento hexaédrico com integração reduzida, livre de travamento volumétrico e travamento de cisalhamento e que não apresenta modos espúrios. Na formulação do elemento, utiliza-se apenas um ponto de integração. Desta forma, a matriz de rigidez é dada de forma explícita e o tempo computacional é significativamente reduzido, especialmente em análise não-linear. Os modos espúrios são suprimidos através de um procedimento de estabilização que não exige parâmetros especificados pelo usuário. Para evitar o travamento de cisalhamento, desenvolve-se o vetor de deformações num sistema co-rotacional e remove-se certos termos não constantes nas componentes de deformações de cisalhamento. O travamento volumétrico é resolvido fazendo-se com que a parte dilatacional (esférica) da matriz gradiente seja avaliada apenas no ponto central do elemento. Como a eliminação do travamento de cisalhamento depende de uma abordagem no sistema local, emprega-se um procedimento co-rotacional para obter o incremento de deformação no sistema local e atualizar os vetores de tensões e forças internas na análise não-linear Para a solução das equações de equilíbrio na análise estática, utilizam-se métodos diretos baseados na eliminação de Gauss ou métodos iterativos de Gradientes Conjugados Precondicionado elemento-por-elemento (EBE). Para a análise dinâmica, as equações de equilíbrio são integradas através do método explícito de Taylor-Galerkin ou do método implícito de Newmark. Através de exemplos numéricos demonstra-se a eficiência e o potencial do elemento tridimensional na análise de casca, placas e vigas submetidas a grandes deslocamentos e grande rotações. Os resultados são comparados com trabalhos que utilizam elementos clássicos de placa e casca.
Resumo:
Introdução: Estudos sobre implicações clínicas da nova definição de infarto do miocárdio (IAM), incorporando novos marcadores de lesão miocárdica, são escassos na literatura. A prevalência de IAM e das suas complicações são diretamente dependentes do critério diagnóstico utilizado. Objetivo: Avaliar o impacto diagnóstico, prognóstico e econômico da nova definição de IAM proposta pela AHA/ ESC usando troponina T (TnT) como marcador de lesão cardíaca. Métodos: Um total de 740 pacientes com dor torácica admitidos na Emergência do Hospital de Clínicas de Porto Alegre no período de julho/ 1999 a janeiro/ 2002 foram incluídos no estudo. Creatina quinase total (CK), CK-MB atividade e TnT foram dosados em uma amostra de 363 pacientes, representativa de toda a coorte. Para redefinição de IAM foram utilizados como ponto de corte valores pico de TnT > 0,2 mg/dl. Os desfechos avaliados foram classificados como eventos cardíacos maiores (angina recorrente, insuficiência cardíaca congestiva, choque cardiogênico e óbito) e como procedimentos de revascularização. Também foram avaliados o manejo prescrito, os custos e o faturamento hospitalar. Resultados: Nos 363 pacientes com marcadores dosados, foram diagnosticados 59 casos de IAM (16%) pelos critérios clássicos; enquanto 40 pacientes (11%) tiveram o diagnóstico de IAM pelo critério redefinido, o que corresponde a um incremento de 71% na incidência. Pacientes com IAM redefinido eram significativamente mais idosos e do sexo masculino, apresentaram mais dor atípica e diabetes mellitus. Na análise multivariada, pacientes com infarto redefinido tiveram um risco 5,1 [IC 95% 1,0-28] vezes maior para óbito hospitalar e 3,4 [IC 95% 1,1-10] vezes maior para eventos combinados em relação aqueles sem IAM. O manejo dos casos de IAM redefinido foi semelhante ao manejo daqueles com IAM tradicional, exceto pelos procedimentos de revascularização que foram menos freqüentes (25% vs. 51%, P < 0,001). O grupo com IAM redefinido permaneceu mais tempo internado e foi submetido a procedimentos mais tardiamente. Do ponto de vista institucional, o uso dos novos critérios para IAM poderia resultar em um aumento de 9% (mais R$ 2.756,00 por grupo de 100 pacientes avaliados) no faturamento baseado em diagnóstico segundo a tabela do SUS. Conclusões: O novo diagnóstico de IAM acrescenta um número expressivo de indivíduos com infarto aos serviços de emergência. A incorporação deste critério é importante na medida que estes pacientes têm um prognóstico semelhante aos demais casos tradicionalmente diagnosticados. Como a identificação destes casos poderia resultar em um manejo mais qualificado e eficiente destes pacientes, esforços deveriam ser adotados para reforçar a adoção da redefinição de IAM.
Resumo:
Este trabalho tem como objetivo geral implantar um programa de produção mais limpa e prevenção à poluição na disciplina de análise química do curso técnico de química de escola de nível médio. O foco do estudo foi análise química quantitativa por métodos clássicos de volumetria e gravimetria, desenvolvido com 3 turmas de alunos. Para isto, a literatura foi revisada, buscando-se os conceitos de Produção mais Limpa (PML), good housekeeping, Prevenção à Poluição (P2), Planos Curriculares Nacionais (PCNs), Constituição Federal e Estadual e implicações de assuntos ambientais e de segurança no ensino da química. A seguir efetuou-se um plano de trabalho e realizou-se a implementa-ção de medidas. Foram estabelecidas como medidas a minimização de reagentes, insumos e resíduos, a reutilização e reciclagem dos mesmos e a conscientização dos alunos sobre sua responsabilidade ambiental em 2 turmas de alunos, mantendo-se a outra como turma controle. Para avaliação de resultados foram usados indicadores quantitativos e qualitativos como quantidades de reagentes, insumos (água potável, detergente e papel toalha) e resí-duos, análise estatística dos resultados analíticos através teste Q, teste F, teste de t student e coeficiente de variação, análise de custos e postura dos estudantes frente a assuntos ambi-entais medidos através de suas atitudes. Os resultados mostraram que houve redução de 50% de reagentes, 55% de insumos, 50% de compostos químicos nos resíduos destinados para a estação de tratamento de efluentes em um volume 31% menor, superando as expec-tativas. Não houve diferença significativa nos resultados analíticos encontrados. A postura dos estudantes mostrou o nível de conscientização esperado. Verificou-se que, com as de-vidas adaptações, é possível aplicar um programa de produção mais limpa e prevenção à poluição em análise química e também em outras disciplinas.
Resumo:
De acordo com a Lei Federal n° 9.433/97, que instituiu a Política e o Sistema Nacional de Gerenciamento dos Recursos Hídricos, o planejamento de recursos hídricos deve ter um enfoque sistêmico, de uso múltiplo das águas e descentralização das decisões, adotando a bacia hidrográfica como unidade de gestão. Dentro deste contexto, de descentralização de decisões e participação de grandes grupos no processo de tomada de decisão sobre a gestão dos recursos hídricos, os procedimentos clássicos de avaliação de alternativas para planejar o uso, controle e proteção das águas tornam-se limitados por sua impossibilidade de incluir outros critérios, além da minimização dos custos ou da maximização dos benefícios, e por não considerarem a subjetividade inerente ao processo de tomada de decisão, que corresponde ao sistema de valores dos atores envolvidos na tomada de decisões. Assim, este trabalho apresenta um Método Multicritério em Apoio à Decisão para o planejamento de recursos hídricos de bacias hidrográficas, que além de incorporar vários critérios na avaliação de alternativas, por adotar uma abordagem construtivista, propicia a participação de todos os atores envolvidos no processo de tomada de decisão. Para testar a aplicabilidade prática do método proposto foi escolhida a bacia hidrográfica do rio dos Sinos, localizada no estado do Rio Grande do Sul, sendo construído um Modelo Multicritério de Avaliação de Alternativas para o Plano da Bacia Hidrográfica do Rio dos Sinos. Os resultados do trabalho demonstraram a robustez da proposta que, ao possibilitar a geração e avaliação de alternativas para o Plano da Bacia Hidrográfica do Rio dos Sinos, a partir de diversos critérios, e levando em conta o sistema de valores dos decisores, se constituiu em um diferencial capaz de conferir maior legitimidade ao processo de tomada de decisões sobre o planejamento de recursos hídricos de bacias hidrográficas.
Resumo:
Frente ao crescente interesse e necessidade de buscar mais informações sobre a real relação do capital humano, nesse caso educação, com o crescimento econômico brasileiro, esta tese procurou examinar suas dinâmicas de inter-relação seguindo os modelos clássicos de abrangência na área, exógeno e endógeno. Dessa forma, apresenta-se, na primeira parte do trabalho uma resenha sobre os textos clássicos na área de estudo de crescimento econômico, exógeno e endógeno, que são os de MANKIW; ROMER e WEIL (1992), LUCAS (1988 e 1993) ROMER (1990) e KLENOW e RODRIGUEZ-CLARE (1997), focando na análise das diferentes formas de medir a variável capital humano (CH). Diferenças não faltam para medi-la, assim como formatos diferentes de expressar a mesma variável de representatividade de qualificação educacional. Este processo de análise tomou por base a proposta do ISCED-1997 elaborado pela UNESCO. Na segunda parte do trabalho buscou-se através de dois trabalhos (LAU et al., 1993; BENHABIB; SPIEGEL, 1994; ANDRADE, 1997) desenvolvidos para análise da economia brasileira, mais precisamente estadual, analisar e comparar, via crosssection e dados de painel, qual o efeito da escolaridade sobre o crescimento econômico nacional entre o período de 1970 e 2001. A terceira parte apresenta um segundo grupo de análises empíricas desenvolvido neste trabalho envolvendo a variável capital humano. Através do trabalho desenvolvido por SAB e SMITH (2001 e 2002), buscou analisar a convergência do capital humano no âmbito estadual (Brasil) através do processo da convergência condicional e não condicional. Concluiu-se que existe uma relação tênue entre as variáveis educação e crescimento econômico para os estados e o Brasil como um todo. Isso devido aos mais diversos fatores como qualidade dos dados, período analisado (tamanho da amostra), as diferentes medidas de capital humano, as diferenças de modelagem das variáveis. Sugere-se, portanto, que outras variáveis representativas inseridas nos modelos, em conjunto com a educação, podem mostrar resultados mais significativos para explicar o desenvolvimento econômico destas regiões e do país.
Resumo:
Neste trabalho é apresentado um novo método para a preparação de nanopartículas de metais de transição em solução. O método consiste na redução por hidrogênio molecular de sais metálicos imobilizados em líquidos iônicos derivados do cátion 1,3-dialquilimidazólio. Nanopartículas de Rh(0) com tamanho entre (2,1+-0,1)nm foram obtidas pela redução de RhCl3 em líquidos iônicos derivados do cátion n-butilmetilimidazólio BMI.X (X=BF4, PF6, CF3SO3), e aplicados como catalizadores para as reações de hidrogenação de olefinas e aromáticos. Nanopartículas de Pd(0) com tamanho entre (4,9+-1,5)nm foram obtidas pela redução de Pd(acac)2 em BMI.PF6 e aplicadas como catalisadores para a reação de hidrogenação de 1,3-butadieno em regime heterogêneo e suportadas em BMI.X (X=BF4, PF6). Nanopartículas bimetálicas de Pd-Rh(0) com tamanho entre (9,1+-0,8)nm também foram obtidas pela redução concomitante de PdCl2 e RhCl3 em líquidos iônicos BMI.X (X=BF4, PF6) e aplicadas como catalisadores para a hidrogenação de 1,5-ciclo-octadieno. Os resultados obtidos sugerem que o líquido iônico deve ser o responsável pela estabilização das nanopartículas e está intimamente relacionado com a atividade catalítica das nanopartículas. A aglomeração e a sistemática perda de atividade catalítica das nanopartículas parecem ser devidas à presença de hidrogênio molecular no meio reacional. Além disso, os resultados obtidos na síntese de nanopartículas bimetálicas indicam que a sua composição pode ser regulada pelas condições da reação de síntese. As reações de hidrogenação foram utilizadas como sondas químicas para o estudo das propriedades catalíticas das nanopartículas. Os resultados obtidos sugerem um mecanismo de reação de superfície, típico de sistemas heterogêneos clássicos.
Resumo:
A armazenagem de grãos é atualmente um importante tópico a ser explorado na região sul do Brasil, e vem se desenvolvendo consideravelmente nos últimos anos. Atualmente a armazenagem é feita através de silos cilíndricos que podem ser de grandes diâmetros ou elevados. Na área da armazenagem é importante implantar novas tecnologias como o caso de silos multicelulares prismáticos que são bastante difundidos nos Estados Unidos. Para estudar estes silos propõe-se analisar um caso real sob a ótica morfológica e dimensional. O estudo baseia-se na comparação entre métodos de análise estrutural analítica convencional com análise numérica através do cálculo por elementos finitos, além de testar as análises de cálculo mais avançadas. Para estudar um caso real buscaram-se informações detalhadas através de desenhos fornecidos por empresas que fabricam estes tipos de silos. Adotando um caso prático como padrão, na seqüência fez-se a análise da interação entre o número de módulos do silo com o objetivo de verificar a influência do número de módulos no dimensionamento dos componentes do silo. Analisou-se o referido projeto utilizando procedimentos clássicos de análise de dimensionamento (métodos analíticos) e compararam-se os mesmos com a análise utilizando o método dos elementos finitos. Adicionalmente executaram-se análises mais avançadas utilizando o método dos elementos finitos como não linearidade geométrica e física, flambagem e análise de freqüências e modos.Após as referidas análises pôde-se concluir que analisando dimensionalmente somente um módulo do silo, pode-se obter resultados que representam todo o conjunto de módulos. Além disso, verificou-se que a análise por elementos finitos é mais apropriada, pois permite menos simplificações de cálculo, apresentando assim resultados mais reais. Quanto às análises adicionais, verificou-se que a carga crítica de flambagem considerando a análise não linear geométrica por elementos finitos é maior do que a carga crítica obtida por análises convencionais.
Resumo:
O desenvolvimento de um método analítico para determinação de Mg, Ti e Cl emcatalisadores suportados Ziegler-Natta (ZN) por espectroscopia de fluorescência de raios Xcom dispersão em comprimento de onda (WDXRF) foi avaliado. Três famílias decatalisadores com distintos teores de Mg, Ti e Cl foram utilizados. Para fins de comparação,os analitos foram também determinados por métodos clássicos, a saber, Mg porcomplexometria com EDTA, Ti por espectrofotometria e Cl por argentimetria. A naturezahigroscópica desses catalisadores impossibilitou a análise direta por WDXRF. Melhoresresultados na preparação da amostra foram obtidos através da calcinação (1000 0C), seguida de mistura com aglomerante (H3BO3), na proporção 1:4, para a determinação da razãoMg/Ti. O estudo do efeito da pressão sobre a intensidade do sinal analítico de Mg e de Ti evidencioua necessidade de prensagem das amostras em pressões superiores a 200 MPa. No caso de Mg e Ti, a determinação por Parâmetros Fundamentais (FP), a partir da medida da linha espectral do Ti, forneceu resultados equivalentes àqueles obtidos porcalibração univariada e por métodos clássicos. No entanto, a utilização de FP a partir damedida da linha espectral do Mg mostrou-se inadequada, provavelmente, devido ao baixo valor do número atômico do Mg. Nas três famílias de catalisadores ZN a razão Mg/Tiobservada foi 0,44 ± 0,01; 1,8 ± 0,05 e 4,9 ± 0,02. A determinação de Cl foi estudada através de extração em meio aquoso, seguida pordeposição de um alíquota da solução sobre diferentes suportes (filmes finos) e posteriorevaporação do solvente. Foram avaliados os suportes papel filtro quantitativo, membranasMillipore FHLC Teflon®, de difluoreto de polivinilideno, celulose, Nylon®, fita Kapton®(poliamida) e Mylar® (poliéster). Devido à natureza do Cl, houve perdas do elemento químicopor volatilização, durante as medidas, possivelmente devido ao vácuo e aquecimento daamostra dentro da câmara de análise do equipamento. A tentativa de fixação do Cl comoAgCl, seguida por deposição sobre a membrana Millipore FHLC foi considerada adequada.No entanto, a média dos resultados obtidos por WDXRF mostrou-se inferior quando comparada ao método argentimétrico utilizado como referência, para um nível de certeza de95%.
Resumo:
O presente estudo analisa a relação entre facção e sistema eleitoral no Uruguai. Toma-se a reforma constitucional de 1996 como paradigma que busca a eliminação das facções pela modificação do sistema eleitoral. Mostra-se que nem todas as facções no Uruguai decorrem, necessariamente, do sistema eleitoral. A origem dos principais partidos políticos é discutida e com ela se analisa a base social de cada um. O crescimento eleitoral da esquerda, dentro de um sistema eleitoral concebido para garantir a continuidade dos partidos tradicionais, é apresentado com o ponto de partida da reforma. Uma comparação entre os dois sistemas eleitorais – o antigo e o novo – leva a conclusão que os partidos tradicionais, por não conseguirem resolver problemas de coordenação no pólo conservador do sistema de partidos, acabam por operar uma reforma que garanta mais representação proporcional frente uma oposição crescente, que tende a ser maioria. Com a teoria dos jogos, os incentivos e a lógica para a formação de coligações de facções são aportados ao estudo demonstrando que as mesmas atuam de forma cooperativa para suplantar estratégias, que individualmente conferem menores ganhos. Mecanismos clássicos de mensuração de número efetivo de partidos (NEP) apontam a quantidade de facções relevantes no sistema. Conclui-se que as facções são agentes relevantes do sistema e que a reforma do sistema eleitoral agiu de forma diversa sobre as facções dos três maiores partidos Uruguaios, não eliminando o fenômeno faccionista.
Resumo:
Um enfraquecimento da autoridade do arquiteto e um recente isolamento da disciplina são manifestados nos novos modos em que são tomadas as decisões de projeto e em uma cisão entre a investigação, a educação e a prática profissional. Na produção argentina da última década isto é colocado em evidência em uma prática onde as decisões sobre os diferentes aspectos do edifício - especialmente suas superfícies aparentes, sua estrutura sustentadora e seus sistemas técnicos - são tomadas independentemente, e até por diferentes atores profissionais. A crescente estandardização iconográfica e técnica dos edifícios estão unidas a novos programas e a uma tematização dos desenvolvimentos urbanos que tomam forma de encraves autônomos de seu contexto. Os processos de decisão se assimilam cada vez mais aos dos produtos de consumo, onde o princípio de êxito substitui o de utilidade e onde uma incrementada capacidade de reprodução do que é de sucesso produz um efeito de espelho. Essa premeditação corrói a autenticidade de todos os produtos, sumindo-os em uma acelerada obsolescência simbólica. Nessas circunstâncias aparece como verossímil apenas aquilo que está além da capacidade de reprodução e de manipulação: o incontrolável e o irreversível. Fontes de sentido onde a arte e a arquitetura buscam significado no passado, no acaso, na pobreza ou na violência Depois de sua retirada disciplinar e da crise dos fundamentos que Eisenmam chama de "clássicos", é sugerida uma possível missão para a arquitetura, novamente fundada na utilidade, ligada ao desafio que apresenta um mundo finito com demandas crescentes e ao reconhecimento da nova condição de um mundo mais residual e menos natural, expondo novamente a velha oposição natural-artificial. Essa missão deveria atuar sobre aspetos tanto culturais quanto técnicos e é ligada a duas visões opostas: o sedentarismo, identificado com a caverna e a acumulação cultural, e o nomadismo, identificado com a figura do navio e a condição do artificial. Essas figuras, sugerimos, circunscrevem o novo cenário onde a arquitetura deverá encontrar sua missão.
Resumo:
Nos últimos dez anos, milhares de trabalhos foram publicados somente no desenvolvimento da técnica de eletroforese capilar (CE) e suas aplicações em ciências biológicas, química e em outras áreas. Apesar disto, muitos tópicos de pesquisa básica da CE ainda continuam sendo desenvolvidos. Algumas vantagens da CE sobre as demais técnicas de separação são marcantes, tais como: possibilidade de automação, rapidez na obtenção dos resultados e alto poder de resolução. A pequena quantidade de amostra que é necessária para uma análise é uma característica muito interessante no estudo de sistemas biológicos, sendo que normalmente são injetados no capilar, volumes de 5 a 50 nl de amostra. Por outro lado, esta reduzida quantidade de amostra utilizada, a pequena janela de detecção e as baixas concentrações dos analitos nas amostras biológicas, são fatores que desafiam os pesquisadores nesta área. Para contornar este problema diversos métodos de pré-concentração de amostra foram desenvolvidos. Neste trabalho, foi desenvolvido um método inédito de pré-concentração de amostras através de gradientes térmicos em CE. O princípio do método é concentrar o analito quando ele passa de uma zona de alta temperatura para uma zona de baixa temperatura. Um modelo teórico foi desenvolvido para auxiliar o planejamento experimental no que diz respeito à determinação das condições em que a corrida deve ser realizada (pH, tipo de tampão, temperatura) para aplicar a compressão térmica em um analito. Foi utilizado L-Lisina derivatizada com naftaleno 2,3-dicarboxialdeído (Lys/NDA) como analito modelo. Uma diferença de temperatura de 58 °C entre as duas zonas térmicas foi suficiente para comprimir em 2,5 vezes a banda da Lys/NDA em um tampão de baixo coeficiente térmico com o pH ajustado para 8,7. O método de compressão de banda por gradientes térmicos proposto neste trabalho é uma nova opção para aumentar a sensibilidade e a resolução em CE. Ao contrário dos métodos clássicos de pré-concentração, esse novo método pode ser aplicado em amostras tanto com alta ou baixa condutividade iônica, comprimir bandas de analitos aniônicos ou catiônicos e ser aplicado em corridas em solução livre ou não. Além disso, considerando que o controle de temperatura seja realizado de maneira automatizada, pode apresentar altas taxas de reprodutibilidade, além de ser de simples e de fácil aplicação, podendo ser empregado em análises de rotina. Diferentes LEDs (Light Emitting Diode) foram testado em detector por fluorescência induzida por LED. Além disso, um novo sistema de aquisição de dados e tratamento de sinal utilizando a placa de som de um PC (Personal Computer) e um amplificador Lock-in emulado por software foi montado e comparado com um sistema de aquisição de dados convencional. O equipamento de CE utilizado neste trabalho com esses componentes, apresentou uma elevada sensibilidade, na faixa de 0,5 à 1 fmol para os peptídeos e aminoácidos testados e foi superior ao sistema convencional em vários aspectos como: sensibilidade de detecção, faixa linear de detecção em concentração do analito, facilidade de operação e custo do sistema.