62 resultados para Modelos ecosistemicos
Resumo:
Este trabalho estuda um tema relativamente recente na literatura econômica conhecido por contágio. Utilizando-se de modelos de mudança de regime markoviana multivariados (MS e MSGARCH) faz-se um estudo do comportamento das correlações ao longo do tempo entre alguns mercados de ações. Vale dizer, as correlações entre mercados de ações latino-americanos (Brasil, Argentina e México) e entre mercados asiáticos (Tailândia, Malásia e Coréia do Sul). O período abrangido pela amostra vai de janeiro de 1994 a início de janeiro de 2002, cobrindo, assim, as crises econômico-financeiras vivenciadas a partir de meados da década de noventa (a crise mexicana, em 1994/95, a crise asiática, em 1997, a crise russa, em 1998, e a crise brasileira, em 1999). A análise do comportamento das correlações ao longo do tempo mostrou que, para os mercados latino-americanos não houve evidência de contágio no período considerado, e sim, interdependência entre eles. Por outro lado, para os mercados de ações asiáticos, constatou-se a ocorrência de contágio entre os mercados tailandês e coreano e entre os mercados malaio e coreano.
Resumo:
As atividades dos Institutos de Pesquisa são a Pesquisa, o Desenvolvimento e a Inovação (PD&I), onde as tecnologias, produtos e serviços, constituem-se no produto final a ser disponibilizado à sociedade. No setor florestal, isto é bem marcante nos Institutos de Pesquisa Mistos que, ao contrário dos Institutos Públicos de Pesquisa, tem suas atividades de pesquisa e desenvolvimento direcionadas prioritariamente a solução de problemas imediatos dos sistemas de produção de madeira e o aumento da produtividade dos povoamentos florestais, para o atendimento das empresas associadas. Com o objetivo de identificar as possíveis diferenças nos modelos de geração, difusão e transferência de tecnologia dos IPPs e IPMs e qual o modelo atualmente em uso por esses institutos é que o presente estudo foi idealizado e implementado. Com o apoio de uma survey em uma fase inicial, foi construído um estudo de casos envolvendo os institutos de pesquisas florestais mais demandados pelos clientes/usuários dos IPPs e IPMs e realizada uma análise comparativa entre IPPs e IPMs, atuando na região Sul. A survey foi utilizada para viabilizar conhecer os clientes/usuários dos IPPs e IPMs. Em uma segunda fase, a principal da pesquisa, com a utilização da metodologia de estudo de casos, apoiada nos resultados da survey, foram coletados dados junto aos IPPs e IPMs para o conhecimento do processo de geração, difusão e transferência de tecnologia desses institutos e, dessa forma, conhecer os diferentes modelos de transferência de tecnologia, atualmente em uso pelos IPPs e IPMs. Foram considerados no estudo as questões pertinentes, levando em conta as características percebidas com a inovação, a existência ou não de ações colaborativas para a realização de PD&I, a sustentabilidade ambiental das pesquisas e a influência e ação dos stakeholders e do Sistema Nacional de Inovação neste processo. Os resultados alcançados demonstraram a existência de uma postura mais competitiva que colaborativa, tanto entre os usuários das pesquisas como no relacionamento entre os próprios institutos de pesquisa. Outro resultado interessante foi à identificação, na opinião desses usuários de um grau de satisfação maior em relação aos IPPs que aos IPMs, fato que surpreende pela própria característica da relação entre os IPMs e seus associados. A análise conjunta do Sistema Nacional de Inovação permitiu concluir que, instituição importante desse sistema tem atuado mais de uma forma limitadora que facilitadora das ações dos IPPs e IPMs, principalmente nos aspectos regulatórios e fiscalizadores da atividade florestal, em detrimento de ações estimuladoras em prol do desenvolvimento econômico, social e do agronegócio florestal da região Sul, resultados que também levam a concluir a influência do SNI no direcionamento do modelo de pesquisa desses institutos mais para um modelo mercadológico que tecnológico.
Curvas de aprendizado como balizadoras da alocação de modelos de produtos a equipes de trabalhadores
Resumo:
Em cenários de produção baseados na flexibilidade de catálogo, uma grande variedade de modelos de produtos é demandada pelos consumidores. Essa condição exige uma rápida adequação dos meios produtivos às especificações do próximo modelo a ser produzido. Tal situação, contudo, pode acarretar perdas consideráveis em relação aos níveis de produção e qualidade, em decorrência da pouca habilidade dos trabalhadores nos ciclos iniciais de produção de um novo modelo. Assim, a modelagem do processo de aprendizado de trabalhadores atuando sobre cada modelo de produto pode auxiliar a gerência na alocação de modelos de produtos a equipes de trabalhadores, minimizando as perdas verificadas nos primeiros ciclos de produção. Esta dissertação propõe uma metodologia baseada na utilização de curvas de aprendizado como balizadoras da alocação de modelos de produtos a equipes de trabalhadores. Os diversos modelos de produtos são agrupados em famílias de acordo com suas características similares, permitindo uma redução na coleta de dados. A alocação das famílias às equipes é realizada através da análise das curvas de aprendizado. Duas formas de alocação são apresentadas, de acordo com a duração da corrida de produção. A metodologia proposta é ilustrada através de um estudo de caso em uma indústria do setor calçadista.
Resumo:
A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.
Resumo:
Os mecanismos envolvidos nas atividades toxicológicas e/ou farmacológicas dos compostos orgânicos de selênio são pouco conhecidos. Os compostos orgânicos de selênio (disseleneto de difenila e ebselen) e organotelúrio (ditelureto de difenila) foram alvo dos trabalhos realizados“in vitro”, neste estudo. Os compostos organocalcogênios apresentaram efeitos diversos sobre o influxo de 45Ca2+ medido em sinaptossomas de cérebro de rato, dependendo das condições e agentes despolarizantes usados. Ebselen, (PhSe)2 e (PhTe)2 alteram a captação de 45Ca2+ de maneira distinta quando expostos a aminopiridina ou KCl. Enquanto (PhTe)2 inibe a captação de cálcio em todas as condições experimentadas, (PhSe)2, apresenta este efeito apenas quando incubado em condições basais ou sob a ação de aminopiridina. Ebselen, por sua vez, aumenta a captação de cálcio em altas concentrações em condições basais e sob a ação de aminopiridina, porém, apresenta efeito inverso quando os sinaptossomas são despolarizados por KCl. Ebselen evitou a inibição da captação de 45Ca2+ “in vitro” provocada por cloreto de mercúrio(HgCl) em sinaptossomas de cérebro de rato em condições basais do ensaio, no entanto, ebselen não afetou a inibição da captação de glutamato “in vitro” por HgCl, indicando que ebselen pode atuar dependendo das proteínas-alvo consideradas.Os compostos de mercúrio, MeHg e HgCl, inibiram a captação de glutamato em córtex cerebral de ratos de 17 dias e ebselen reverteu somente o efeito do MeHg porém, não, o do HgCl. Disseleneto de difenila não alterou os parâmetros avaliados na exposição de ambos os compostos de mercúrio.Os compostos de mercúrio estudados provocaram a morte celular das fatias de córtex, porém, ebselen protegeu as fatias dos efeitos lesivos provocados por MeHg e não pelo HgCl.
Resumo:
O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.
Resumo:
As bases moleculares da neuroproteção contra a isquemia mediada por estrógeno continuam obscuras, assim como os mecanismos envolvendo a tolerância ao dano isquêmico subseqüente induzida por pré-condicionamento. Neste trabalho foi estudado se as vias de sinalização celular da PI3-K (fosfatidil inositol 3-quinase) e da MEK/ERK 1/2 estariam envolvidas na neuroproteção induzida por estrógeno, bem como alguns parâmetros de estresse oxidativo, especificamente o conteúdo de radicais livres, um índice de dano oxidativo a proteínas e a capacidade antioxidante total. Também foi estudado o possível envolvimento dos transportadores de glutamato (EAAT1 e EAAT2) e dos receptores de estrógeno (ERα e ERβ) nos efeitos neuroprotetores do estrógeno e do pré-condicionamento. Para este fim, foram utilizados os modelos in vitro de culturas organotípicas de fatias hipocampais e fatias hipocampais preparadas a fresco expostas à privação de oxigênio e glicose (POG) e o modelo in vivo de hipóxia-isquemia neonatal. Em culturas tratadas tanto aguda como cronicamente com 17β-estradiol, a morte celular induzida por POG foi diminuída acentuadamente quando comparada com as culturas tratadas apenas com veículo. Este efeito neuroprotetor foi evitado por LY294002 (inibidor de PI3-K), mas não por PD98059 (inibidor de MEK/ERK 1/2). Ambos os protocolos de tratamento com estradiol induziram a fosforilação/ativação da proteína quinase B (PKB/Akt) e a fosforilação/inativação da glicogênio sintase quinase-3β (GSK-3β). Em um estudo similar, o imunoconteúdo do receptor estrogênico ERα diminuiu após POG em culturas tratadas tanto com estradiol quanto veículo, enquanto que o receptor ERβ aumentou apenas nas culturas tratadas com estradiol expostas ou não à POG. Não foram observadas alterações no imunoconteúdo dos transportadores de glutamato (EAATs) em nenhum dos tratamentos in vitro. Em fatias de hipocampo de cérebro de ratas ovariectomizadas que receberam reposição de estradiol, a morte celular foi reduzida em comparação ao grupo de ratas que não recebeu a reposição hormonal. Neste mesmo modelo, observou-se que a POG aumentou a produção de radicais livres nos dois grupos, porém não foram observadas diferenças na capacidade antioxidante total. Por outro lado, a reposição de estradiol evitou a redução nos conteúdos de triptofano e tirosina causada por POG. No modelo in vivo, o cérebro de ratos neonatos foi protegido contra a hipóxia-isquemia pelo précondicionamento hipóxico. Em paralelo, o pré-condicionamento aumentou o imunoconteúdo dos transportadores de glutamato EAAT2 e do receptor estrogênico ERα em córtex e diminuiu os níveis de EAAT2 em estriado, mas não afetou os níveis de EAAT1 e ERβ. Já no modelo in vitro de pré-condicionamento, nas culturas organotípicas de hipocampo pré-condicionadas, 15 min de POG induziu tolerância acentuada a um período subseqüente de 45 min de POG, porém não foram detectadas alterações nos transportadores de glutamato nem nos receptores estrogênicos. Juntos, os resultados sugerem que na isquemia a neuroproteção induzida por estrógeno pode envolver a via de sinalização celular da fostatidil inositol 3-quinase (PI3-K), a prevenção do dano oxidativo a proteínas e a regulação dos receptores estrogênicos ERα e ERβ, enquanto que a tolerância à isquemia cerebral induzida por pré-condicionamento pode envolver a regulação dos transportadores de glutamato EAAT2 e receptores estrogênicos ERα.
Resumo:
A década de 1990 é caracterizada pela liberalização financeira internacional, e pelo aumento da importância do setor bancário na intermediação destes recursos. Com a ocorrência de diversas crises cambiais e bancárias em economias emergentes nesta década, cresce a necessidade de reformulação das teorias tradicionais sobre crises cambiais, para comportar esta nova realidade. Neste sentido, este trabalho pretende contribuir teoricamente ao sugerir, em linhas gerais, um modelo analítico que relacione a expansão do crédito doméstico à fragilidade bancária e ao papel do Banco Central de emprestador em última instância para os bancos. Empiricamente, é formulado um índice de pressão no mercado cambial, incluindo os componentes tradicionais de variação da taxa de câmbio, das reservas e do diferencial entre as taxas de juros doméstica e internacional, acrescido de um componente novo de variação dos depósitos bancários. Além disso, é estimado um modelo em painel para 13 países emergentes, do primeiro trimestre de 1995 ao quarto trimestre de 2000, o qual procura identificar a influência de algumas variáveis econômicas e políticas na pressão no mercado cambial. Os resultados sugerem que o crédito do Banco Central ao setor bancário, o aumento das exigibilidades de curto prazo em relação às reservas, o contágio de da tensão cambial nos outros países emergentes e o risco político são significativos para explicar o aumento da vulnerabilidade dos países à ocorrência de crises cambiais. Em relação ao déficit público, não foram encontradas evidências de que esta variável seja significativa para explicar a tensão no mercado cambial.
Resumo:
Com o objetivo de realizar consultas em diferentes fontes XML,é necessário que se escreva uma consulta específica para cada fonte XML. Uma solução mais adequada é fazer uma única consulta sobre um esquema conceitual e então traduzi-la automaticamente para consultas XML para cada fonte XML específica. CXPath é uma linguagem de consulta que foi proposta para consultar dados em nıvel conceitual. Este trabalho tem como objetivos formalizar a linguagem existente, estendê-la para permitir consultas que utilizem o conceito de herança e estender o mecanismo de tradução de consultas. A formalização da linguagem é feita por meio de um conjunto de regras que definem formalmente um critério para validar uma consulta escrita nessa linguagem sobre um esquema conceitual. Essa formalização permite estender a linguagem para que ela passe a tratar os relacionamentos de herança e especialização. Outra contribuição dessa formalização é que ela apresenta o primeiro passo rumo à verificação formal de que a avaliação da consulta global traz os mesmos resultados obtidos pela avaliação da consulta resultante do processo de mapeamento de consultas proposto. A extensão do mecanismo de tradução de consultas é necessária para traduzir relacionamentos representados no modelo conceitual para junções nas fontes de dados XML. Tal aspecto é fundamental para permitir a construção de modelos conceituais com relacionamentos semânticos e que não dependam de relacionamentos físicos existentes nos documentos fontes, mas apenas de junções tal como é feito em bases de dados relacionais.
Resumo:
Resumo não disponível.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
Em sistemas produtivos onde a diversificação da produção é vista como estratégia competitiva, a customização torna-se uma ferramenta importante, pois possibilita a produção de itens diferenciados a custos similares aos de produtos padronizados. No entanto, sua implementação requer certa flexibilidade no processo produtivo, sendo esta adquirida através da adoção de linhas de montagem capazes de alternar diferentes modelos de um mesmo produto, denominadas como linhas de montagem multi-modelos. Neste tipo de sistema produtivo, a distribuição das tarefas de montagem entre as estações de trabalho tende a ser mais complexa, devido às características de cada modelo produzido pela linha. Dessa forma, o estudo do problema de balanceamento de linhas de montagem multi-modelos é necessário ao desejar-se obter uma melhor distribuição da carga de trabalho entre as estações e, conseqüentemente, um aumento de produtividade. Esta dissertação propõe uma sistemática para realização de balanceamento em linha de montagem multi-modelos. Para tanto, são classificados quanto às suas características e aplicabilidade procedimentos de balanceamento de linhas multi-modelos desenvolvidos por diversos autores. Um desses procedimentos, inserido na sistemática proposta, tem sua aplicação ilustrada através de um estudo de caso em uma indústria de manufatura.
Resumo:
O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.
Resumo:
Com o desenvolvimento de materiais mais resistentes, técnicas construtivas mais modernas e a crescente valorização dos terrenos nos centros das grandes cidades, criou-se um ambiente propício à construção de edificações mais altas, leves, flexíveis, menos amortecidas, e, portanto, mais susceptíveis a problemas associados à resposta dinâmica frente à ação do vento. Em algumas situações, quando há ressonância, a parcela flutuante da resposta estrutural devido à ação do vento pode chegar a representar 2/3 da resposta total. Os métodos analíticos atualmente existentes para determinação da resposta flutuante induzida pela ação do vento geralmente conduzem a resultados pouco confiáveis. Em vista desse fato, os ensaios em túnel de vento ainda são a ferramenta mais precisa e robusta para o estudo do comportamento dinâmico de estruturas civis. Este trabalho apresenta o desenvolvimento de um suporte flexível para ensaios de modelos aeroelásticos de estruturas alteadas, visando a determinação da parcela flutuante da resposta à ação do vento nos dois modos fundamentais de vibração livre (flexão em duas direções ortogonais). Este suporte pode ser empregado em testes de modelos de diferentes geometrias, e permite que, com grande facilidade, sejam ajustados o amortecimento estrutural, rigidez e inércia, individualmente em cada direção. Com o objetivo de verificar o correto funcionamento do equipamento e a validade dos resultados por ele obtidos, foram realizados testes com um modelo do edifício alto padrão “CAARC Standard Tall Building”. No trabalho são apresentados e discutidos os resultados dos ensaios, realizados no Túnel de Vento Professor Joaquim Blessmann, da Universidade Federal do Rio Grande do Sul.
Resumo:
O Diabetes Mellitus é uma síndrome metabólica caracterizada por hiperglicemia crônica e, esta por sua vez, contribui para o desenvolvimento das complicações secundárias freqüentemente observadas nos pacientes diabeticos. O estresse oxidativo decorrente dessa hiperglicemia é um dos principais fatores envolvidos na fisiopatologia dessas complicações. Vários estudos comprovam o efeito nocivo in vivo e in vitro de concentrações altas de glicose sobre diferentes tecidos e órgãos. Enzimas sulfidrílicas como δ-aminolevulinato desidratase (δ-ALAD), lactato desidrogenase (LDH) e succinato desidrogenase (SDH), são altamente sensíveis a elementos pró-oxidantes. Uma freqüente coexistência entre Diabetes mellitus e porfiria tem sido observada em humanos e em animais experimentais, o que pode estar ligado à inibição da δ-ALA-D observada em diabéticos. Este estudo tem como objetivos induzir estresse oxidativo in vivo com exercício físico intenso ou dieta contendo altos níveis de sacarose e in vitro e com altas concentrações de açúcares redures e avaliar seus efeitos sobre os níveis de lipoperoxidação, fragilidade osmótica dos eritrócitos, atividade de enzimas antioxidantes (catalase e superóxido dismutase) e enzimas sulfidrílicas (δ-ALA-D, LDH e SDH), verificar o efeito de um antioxidante seleno-orgânico (ebselen) e a suplementação de selênio sobre a atividade destas enzimas, bem como avaliar o possível papel terapêutico do ebselen sobre a fragilidade osmótica dos eritrócitos. Os resultados obtidos neste estudo demonstram que eritrócitos de pessoas com diabetes descontrolado são mais sensíveis ao choque osmótico que eritrócitos de pacientes com diabetes controlado e eritrócitos de pessoas saudáveis. Além disso, uma função protetora do ebselen contra a fragilidade osmótica, indica que eritrócitos de pessoas com diabetes descontrolada estão expostos a um aumento na produção de radicais livres in vivo. O ebselen também apresentou propriedade de inibir a glicação in vitro. O exercício físico intenso associado à deficiência de selênio, é capaz de diminuir a atividade das enzimas sulfidrílicas. No entanto, exercício físico moderado de menor intensidade melhora a sencibilidade à insulina em camundongos com resistência à insulina, previne contra fatores nocivos comumente encontrados no diabetes como ganho de peso corporal e acúmulo de gordura abdominal não é capaz de afetar atividade da -ALA-D. Através dos 2 modelos experimentais utilizados, modelo de indução de peroxidação lipídica em eritrócitos incubados com concentrações elevadas de açúcares redutores in vitro e modelo de indução de resistência à insulina em animais treinados e sedentários, pode-se concluir que: A incubação de eritrócitos in vitro com altas concentrações de glicose ou frutose leva a um aumento na lipoperoxidação e contribui para a diminuição da atividade de enzimas tiólicas provavelmente por oxidação dos seus grupos –SH. O exercício físico associado com baixos níveis de selênio na dieta prejudica a atividade de enzimas tiólicas como -ALA-D e SDH. O exercício físico de intensidade moderada aumenta a sensibilidade à insulina em camundongos com resistência à insulina induzida pela dieta com sacarose e previne contra o ganho de peso corporal e aumento do índice de gordura abdominal.