887 resultados para Aço estrutural
Resumo:
Com o objetivo de melhor se adaptar ao ambiente de competição (informacional) global, que se estrutura e se impõe a partir de uma ´divisão inter-regional do trabalho´, as regiões tendem a desenvolver estratégias de planejamento regional e urbano com o objetivo de impulsionar o parque produtivo informacional local. Intentam desta maneira compôr mecanismos locais que permitam a formação de um Sistema Local de Inovação, baseado na interação sinergética entre os atores sociais. Esta articulação regional trabalha em diversas esferas espaciais (e consequentemente temporais), uma vez que a fluida lógica estrutural do sistema informacional global (´espaço de fluxos´) difere dos mecanismos locais de articulação, pois estes estão ligados teluricamente às tradições culturais (´espaço de lugares´). Segundo Castells, o ´espaço de fluxos´ é definido como sendo um sistema de alcance global estruturado em redes (nós e eixos) permeadas por informações que circulam (eletronicamente) instantaneamente. Porém a dinâmica do sistema é gerada a partir do historicamente construído ´espaço de lugares´(local), articulado reflexivamente a partir da ação de três instituições internas (reconhecidas pelo modelo da Hélice Tripla como: universidades, empresas e governo). De maneira geral, podemos observar que a universidade, enquanto instituição empreendedora e voltada para a produção de inovações informacionais, passa a exercer importante função catalisadora deste processo de organização das forças produtivas regionais (a nível de ´espaço de lugares´) Reconhecendo que há uma tendência à incompatibilidade entre as esferas espaciais de articulação citadas (embora elas tenham uma existência ativa), esta dissertação irá sugerir a pertinência da observação de uma articulação espacial híbrida, tanto global-informacional quanto local-cultural (denominada ´espaço híbrido´), atuando estrategicamente na construção dos Sistemas Locais de Inovação. Desta maneira, com a finalidade de estruturar espacialmente os Sistemas Locais de Inovação, uma das principais estratégias que o planejador regional dispõe é a da formação e potencialização de clusters espaciais de inovação, na forma de programas de criação de pólos e/ou parques tecnológicos (e/ou tecnópoles). Tendo como objetivo a criação de um processo produtivo local sinergético e informacional, são projetadas e aplicadas políticas industriais e urbanas de longo prazo que buscam retirar o máximo possível da proximidade espacial existente e/ou induzida. Como estudo de caso, serão analisados projetos intra-urbanos atuantes nas áreas das Ciências da Vida. Inicialmente serão apresentados quatro casos internacionais, para por fim serem comparados ao projeto Porto Alegre Tecnópole (e em especial ao projeto Cidade Saúde de Porto Alegre).
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
O presente trabalho enfoca a relação existente entre a utilização do Comércio Eletrônico e a transformação organizacional vista sob seis diferentes perspectivas, quais sejam: perspectivas estratégica, estrutural, tecnológica, humana, cultural e política (poder). Este modelo sugerido por MOTTA (2001) foi adaptado e adotado como norteador da pesquisa. É importante ressaltar que o Comércio Eletrônico foi analisado como agente de mudança dentre do cenário proposto, não é nosso objetivo analisá-lo como objeto fim desta dissertação, apesar de ele desempenhar um papel fundamental dentro da análise como um todo. Para tanto, foi adotada a metodologia de estudo de caso em uma grande empresa do setor automotivo brasileiro tendo como método de análise dos dados o padrão qualitativo. Como instrumento de coleta dos dados, foi elaborada uma entrevista semi-estruturada que permitisse aos respondentes uma maior liberdade em suas respostas, sendo que os dados coletados foram analisados de acordo com os princípios de análise de conteúdo proposto por BARDIN (1979). Ainda, outro objetivo ao qual o trabalho se propôs foi o enquadramento, ou a identificação de um modelo organizacional sob o qual a referida empresa pesquisada baseiase para a realização de seus negócios. Para atingir este objetivo, foi feita uma revisão das teorias organizacionais mais marcantes ao longo da evolução da disciplina de Administração, desde seu surgimento até os dias de hoje. Como resultado da pesquisa, foi possível afirmar que o Comércio Eletrônico gerou mudanças em todas as perspectivas, a única que não sofreu modificação foi a perspectiva do política (poder), a qual manteve-se inalterada com a introdução desta nova contingência dentro do negócio da empresa.
Resumo:
Os mercados internacionais de capital cresceram dramaticamente desde meados da década de 60. Embora reflitam parcialmente as economias em expansão, o aumento do comércio mundial e a globalização da produção, os movimentos internacionais de capital envolvem também fatores puramente financeiros que se propagam com velocidade perceptivelmente maior. Assim, ainda que tenham permitido o alívio das restrições financeiras impostas pela crise da dívida dos anos 80, e melhorado os índices de eficiência e alocação de capital para o conjunto das economias da América Latina, os volumosos influxos financeiros também suscitaram preocupação em razão de seus efeitos sobre a estabilidade macroeconômica, a competitividade do setor exportador e as políticas de crescimento e desenvolvimento sustentado dessas economias. Neste contexto, aos policymakers, através do adequado gerenciamento das políticas micro e macroeconômicas, recai, em última instância, a responsabilidade em minimizar eventuais condições de desajuste estrutural e conseqüente incerteza, visto que ingressos elevados e repentinos de capital podem causar instabilidade mediante crescimento rápido do consumo, inflação crescente, valorização da taxa de câmbio real e déficits cada vez maiores de conta corrente.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
O objetivo geral desta dissertação é estudar as possibilidades de flexibilização da função de saída do Sistema Hyper-Automaton além das rígidas possibilidades utilizadas atualmente com a utilização direta do HTML, objetivando eliminar as limitações como execução de aplicações proprietárias, caracteres incompatíveis entre browsers, excesso de tráfego na rede, padronizar aplicações, incrementar recursos didáticos, melhorar o suporte a aplicações multimídia atuais e futuras, facilitar a manutenção, implementação e reuso, alterar o layout de saída no browser de maneira dinâmica, explorar outros recursos de links, estabelecer padrões de organização do material instrucional criado pelo professor e muitas outras. Tal sistema anteriormente desenvolvido e funcionando adequadamente, é baseado no formalismo de Autômatos Finitos com Saída como modelo estrutural para organização de hiperdocumentos instrucionais, em especial em cursos na Web, tornando o material hipermídia independente do controle da aplicação. O Sistema Hyper-Automaton, tornou-se portanto, um sistema semi-automatizado para suporte a cursos na Web. Com o desdobramento da pesquisa, esta procurou ir mais além e descreveu possibilidades de não só estudar os aspectos possíveis de formatação de saída do sistema, mas reestruturá-lo totalmente sobre uma linguagem de markup padrão, buscando atualizá-lo tecnologicamente definindo outras possibilidades para que significativos trabalhos futuros possam de maneira mais clara serem alcançados. Dessa maneira, esta dissertação centra-se no estudo da aplicação de formas de flexibilização do Sistema Hyper-Automaton, tanto na parte da estruturação de documentos que são conteúdos instrucionais armazenados, bem como, na forma desse material tornar-se-á disponível através de navegadores WWW compatíveis com as tecnologias propostas, possibilitando o incremento substancial de funcionalidades necessárias para cursos onde a Web é o principal meio. Esta pesquisa dá prosseguimento a dois trabalhos anteriormente concluídos no PPGC e do Curso de Bacharelado em Ciência da Computação da UFRGS no ano de 2000, na seqüência, Hyper-Automaton: Hipertextos e Cursos na Web Utilizando Autômatos Finitos com Saída, dissertação de mestrado de Júlio Henrique de A. P. Machado e Hyper-Automaton: Implementação e Uso, trabalho de diplomação de Leonardo Penczek.
Resumo:
Estudo compreendido como uma inter-relação lógica entre tesauros e Terminologia, mais especificamente nos princípios da Teoria Comunicativa da Terminologia — TCT. Analisa um tesauro do ponto de vista da sua organização estrutural. Estuda os descritores verificando sua representatividade como um elemento de representação e recuperação das informações de uma área de especialidade. Sinaliza para uma nova abordagem em relação ao tratamento dos descritores aproximando-os a uma unidade lexical terminológica. Tem como pressuposto de trabalho que a relação que se estabelece entre um sistema de recuperação da informação — SRI e os usuários do sistema é uma relação de comunicação. Apresenta algumas considerações e recomendações.
Resumo:
Este trabalho visa a investigação dos aspectos microestruturais, de cunho significativo nas propriedades mecânicas de um aço microligado, através da utilização de técnicas de microscopia eletrônica. Variações em parâmetros de produção e processamento de aços microligados produzem efeitos microestruturais diversos, os quais influenciam diretamente nas propriedades do material. Para tanto, é de suma importância a realização de um acompanhamento da evolução microestrutural de forjados, para que se possa entender os mecanismos de reforço estrutural, e assim, buscar controlá-los. Foram simuladas as condições industriais de forjamento em amostras de aço microligado ao nióbio, SAE 1141, utilizando um simulador termomecânico Gleeble. Esse aço é empregado na produção de garfos (terminal) forjados pela indústria automobilística. As variáveis controladas na simulação foram a temperatura de pré-aquecimento, percentual de deformação e taxa de resfriamento. Os aspectos microestruturais resultantes foram analisados por microscopia de luz visível e eletrônica de varredura. Especial atenção foi dada ao estudo dos aspectos subestruturais através da técnica de microscopia eletrônica de transmissão. Foram utilizadas para tal amostras do tipo réplica de extração em filme de carbono e lâminas finas Os estudos realizados neste trabalho poderão contribuir para otimização do processo de forjamento nessa classe de aços visando garantir boas propriedades mecânicas. Análises por nano-sonda EDS indicam a presença de partículas ricas em Nb. Foi constatado que a temperatura de pré-aquecimento para forjamento desempenha papel importante, pois a temperatura mais baixa, verifica-se fina precipitação de carbonitretos e o refino de grão é mais pronunciado. Este efeito é influenciado também pelo grau de deformação a quente.
Resumo:
Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.
Resumo:
Neste trabalho foram estudadas as propriedades magnéticas e estruturais de filmes ultrafinos de Fe, Co e Ni produzidos por eletrodeposição sobre substratos de Au(111). Os estágios iniciais de crescimento dos filmes foram estudados por técnicas de caracterização “in-situ”. Uma nova técnica de caracterização do estado magnético de filmes ultrafinos eletrodepositados (EC-AGFM) foi utilizada, mostrando-se uma poderosa ferramenta para o estudo das propriedades magnéticas dos filmes. Outras técnicas, como STM “in-situ”, PMOKE “in-situ”, EXAFS, XRD, RBS foram utilizadas. A análise dos dados revelaram resultados diferentes para os filmes de Fe e Co/Au(111), em comparação aos filmes de Ni/Au(111). Enquanto a anisotropia magnética perpendicular (PMA) foi observada para os filmes de Fe e Co/Au(111), não foi observada para os filmes de Ni/Au(111). Os resultados são interpretados em termos das contribuições para a anisotropia magnética dos filmes. No caso do níquel, a degradação de suas propriedades magnéticas são atribuídas à incorporação de hidrogênio durante a deposição. Os resultados das análises magnética e estrutural são correlacionados a fim de compreender o comportamento das propriedades observadas. Os resultados são comparados aos obtidos por técnicas em vácuo.
Resumo:
Introdução: O diagnóstico microbiológico da infecção por Legionella é complexo, pois a bactéria não é visualizada à coloração de Gram no escarro, e sua cultura não é realizada na maioria dos laboratórios clínicos. A imunofluorescência direta nas secreções respiratórias tem baixa sensibilidade, em torno de 40% e a técnica da “PCR” não é ainda recomendada para o diagnóstico clínico (CDC, 1997). A detecção de anticorpos no soro é a técnica mais utilizada, e o critério definitivo é a soroconversão para no mínimo 1:128, cuja sensibilidade é de 70 a 80% (Edelstein, 1993). Como critérios diagnósticos de possível pneumonia por Legionella, eram utilizados: título único de anticorpos a L pneumophila positivo na diluição 1:256, em paciente com quadro clínico compatível (CDC, 1990) e o achado de antígeno a Legionella na urina (WHO, 1990). Nos últimos anos, porém, com o uso crescente do teste de antigenúria, foram detectados casos de pneumonia por Legionella, que não eram diagnosticados por cultura ou sorologia, tornando-o método diagnóstico de certeza para o diagnóstico de pneumonia por Legionella (CDC, 1997). Por sua fácil execução, resultado imediato, e alta sensibilidade - de 86% a 98% (Kashuba & Ballow, 1986; Harrison & Doshi, 2001), tem sido recomendado para o diagnóstico das PAC que necessitam internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001; Marrie, 2001), especialmente em UTI (ATS, 2001). Vários estudos documentaram baixo valor preditivo positivo do título único positivo de 1:256, tornando-o sem valor para o diagnóstico da pneumonia por Legionella, exceto, talvez, em surtos (Plouffe et al., 1995). Outros detectaram alta prevalência de anticorpos positivos na diluição 1:256 na população, em pessoas normais (Wilkinson et al., 1983; Nichol et al., 1991). A partir de 1996, o CDC de Atlanta recomendou que não seja mais utilizado o critério de caso provável de infecção por Legionella pneumophila por título único de fase convalescente ≥1:256, por falta de especificidade(CDC, 1997). A pneumonia por Legionella é raramente diagnosticada, e sua incidência é subestimada. Em estudos de PAC, a incidência da pneumonia por Legionella nos EUA, Europa, Israel e Austrália, foi estimada entre 1% a 16% (Muder & Yu, 2000). Nos EUA, foi estimado que cerca de 8 000 a 23 000 casos de PAC por Legionella ocorrem anualmente, em pacientes que requerem hospitalização (Marston et al., 1994 e 1977). No Brasil, a incidência de PAC causadas por Legionella em pacientes hospitalizados é tema de investigação pertinente, ainda não relatado na literatura. Objetivo: detectar a incidência de pneumonias causadas por Legionella pneumophila sorogrupos 1 a 6, em pacientes que internaram no Hospital de Clínicas de Porto Alegre por PAC, por um ano. Material e Métodos: o delineamento escolhido foi um estudo de coorte (de incidência), constituída por casos consecutivos de pneumonia adquirida na comunidade que internaram no HCPA de 19 de julho de 2000 a 18 de julho de 2001. Para a identificação dos casos, foram examinados diariamente o registro computadorizado das internações hospitalares, exceto as internações da pediatria e da obstetrícia, sendo selecionados todos os pacientes internados com o diagnóstico de pneumonia e de insuficiência respiratória aguda. Foram excluídos aqueles com menos de 18 anos ou mais de 80 anos; os procedentes de instituições, HIV-positivos, gestantes, pacientes restritos ao leito; e portadores de doença estrutural pulmonar ou traqueostomias. Foram excluídos os pacientes que tivessem tido alta hospitalar nos últimos 15 dias, e aqueles já incluídos no decorrer do estudo. Os pacientes selecionados foram examinados por um pesquisador, e incluídos para estudo se apresentassem infiltrado ao RX de tórax compatível com pneumonia, associado a pelo menos um dos sintomas respiratórios maiores (temperatura axilar > 37,8ºC, tosse ou escarro; ou dois sintomas menores (pleurisia, dispnéia, alteração do estado mental, sinais de consolidação à ausculta pulmonar, mais de 12 000 leucócitos/mm3). O estudo foi previamente aprovado pela Comissão de Ética em Pesquisa do HCPA. Os pacientes eram entrevistados por um pesquisador, dando seu consentimento por escrito, e então seus dados clínicos e laboratoriais eram registrados em protocolo individual. Não houve interferência do pesquisador, durante a internação, exceto pela coleta de urina e de sangue para exame laboratoriais específicos da pesquisa. Os pacientes eram agendados, no ambulatório de pesquisa, num prazo de 4 a 12 semanas após sua inclusão no estudo, quando realizavam nova coleta de sangue, RX de tórax de controle, e outros exames que se fizessem necessários para esclarecimento diagnóstico.Todos os pacientes foram acompanhados por 1 ano, após sua inclusão no estudo.Foram utilizadas a técnica de imunofluorescência indireta para detecção de anticorpos das classes IgG, IgM e IgA a Legionella pneumophila sorogrupos 1 a 6 no soro, em duas amostras, colhidas, respectivamente, na 1ª semana de internação e depois de 4 a 12 semanas; e a técnica imunológica por teste ELISA para a detecção do antígeno de Legionella pneumophila sorogrupo 1 na urina, colhida na primeira semana de internação. As urinas eram armazenadas, imediatamente após sua coleta, em freezer a –70ºC, e depois descongeladas e processadas em grupos de cerca de 20 amostras. A imunofluorescência foi feita no laboratório de doenças Infecciosas da Universidade de Louisville (KY, EUA), em amostras de soro da fase aguda e convalescente, a partir da diluição 1:8; e a detecção do antígeno de Legionella pneumophila sorogrupo 1, nas amostras de urina, foi realizada no laboratório de pesquisa do HCPA, pelos investigadores, utilizando um kit comercial de teste ELISA fabricado por Binax (Binax Legionella Urinary Enzyme Assay, Raritan, EUA). As urinas positivas eram recongeladas novamente, para serem enviadas para confirmação no mesmo laboratório americano, ao fim do estudo. Foram adotados como critérios definitivos de infecção por Legionella pneumophila sorogrupos 1 a 6, a soroconversão (elevação de 4 vezes no título de anticorpos séricos entre o soro da fase aguda e da fase convalescente para no mínimo 1:128); ou o achado de antígeno de L pneumophila sorogrupo 1 na urina não concentrada, numa razão superior a 3, conforme instruções do fabricante e da literatura.Os pacientes foram classificados, de acordo com suas características clínicas, em 1º) portadores de doenças crônicas (doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal); 2º) portadores de doenças subjacentes com imunossupressão; 3º) pacientes hígidos ou com outras doenças que não determinassem insuficiência orgânica. Imunossupressão foi definida como esplenectomia, ser portador de neoplasia hematológica, portador de doença auto-imune, ou de transplante; ou uso de medicação imunossupressora nas 4 semanas anteriores ao diagnóstico (Yu et al., 2002b); ou uso de prednisolona 10 mg/dia ou equivalente nos últimos 3 meses (Lim et al., 2001). As características clínicas e laboratoriais dos pacientes que evoluíram ao óbito por pneumonia foram comparados àquelas dos pacientes que obtiveram cura. Para a análise das variáveis categóricas, utilizou-se o teste qui-quadrado de Pearson ou teste exato de Fisher. Para as variáveis numéricas contínuas, utilizou-se o teste “t“ de Student. Um valor de p< 0,05 foi considerado como resultado estatisticamente significativo (programas SPSS, versão 10). Foi calculada a freqüência de mortes por pneumonia na população estudada, adotando-se a alta hospitalar como critério de cura. Foi calculada a incidência cumulativa para pneumonia por Legionella pneumophila sorogrupos 1 a 6, em um hospital geral, no período de 1 ano. Resultados: durante um ano de estudo foram examinados 645 registros de internação, nos quais constavam, como motivo de baixa hospitalar, o diagnóstico de pneumonia ou de insuficiência respiratória aguda; a maioria desses diagnósticos iniciais não foram confirmados. Desses 645 pacientes, foram incluídos no estudo 82 pacientes, nos quais os critérios clínicos ou radiológicos de pneumonia foram confirmados pelos pesquisadores. Durante o acompanhamento desses pacientes, porém, foram excluídos 23 pacientes por apresentarem outras patologias que mimetizavam pneumonia: DPOC agudizado (5), insuficiência cardíaca (3), tuberculose pulmonar (2), colagenose (1), fibrose pulmonar idiopática (1), edema pulmonar em paciente com cirrose (1), somente infecçâo respiratória em paciente com sequelas pulmonares (4); ou por apresentarem critérios de exclusão: bronquiectasias (4), HIV positivo (1), pneumatocele prévia (1). Ao final, foram estudados 59 pacientes com pneumonia adquirida na comunidade, sendo 20 do sexo feminino e 39 do sexo masculino, com idade entre 24 e 80 anos (média de 57,6 anos e desvio padrão de ±10,6). Tivemos 36 pacientes com doenças subjacentes classificadas como “doenças crônicas”, dos quais 18 pacientes apresentavam mais de uma co-morbidade, por ordem de prevalência: doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal; neoplasias ocorreram em 9 pacientes, sendo sólidas em 7 pacientes e hematológicas em 2. Dos 59 pacientes, 61% eram tabagistas e 16,9%, alcoolistas. Do total, 10 pacientes apresentavam imunossupressão. Dos demais 13 pacientes, somente um era previamente hígido, enquanto os outros apresentavam tabagismo, sinusite, anemia, HAS, gota, ou arterite de Takayasu. A apresentação radiológica inicial foi broncopneumonia em 59,3% dos casos; pneumonia alveolar ocorreu em 23,7% dos casos, enquanto ambos padrões ocorreram em 15,2% dos pacientes. Pneumonia intersticial ocorreu em somente um caso, enquanto broncopneumonia obstrutiva ocorreu em 5 pacientes (8,5%). Derrame pleural ocorreu em 22% dos casos, e em 21 pacientes (35%) houve comprometimento de mais de um lobo ao RX de tórax. Foram usados beta-lactâmicos para o tratamento da maioria dos pacientes (72,9%9). A segunda classe de antibióticos mais usados foi a das fluoroquinolonas respiratórias, que foram receitadas para 23 pacientes (39,0%), e em 3º lugar, os macrolídeos, usados por 11 pacientes (18,6%). Apenas 16 pacientes não usaram beta-lactâmicos, em sua maioria recebendo quinolonas ou macrolídeos. Dos 43 pacientes que usaram beta-lactâmicos, 25 não usaram nem macrolídeos, nem quinolonas. Em 13 pacientes as fluoroquinolonas respiratórias foram as únicas drogas usadas para o tratamento da pneumonia. Do total, 8 pacientes foram a óbito por pneumonia; em outros 3 pacientes, o óbito foi atribuído a neoplasia em estágio avançado. Dos 48 pacientes que obtiveram cura, 33 (68,7%) estavam vivos após 12 meses. Os resultados da comparação realizada evidenciaram tendência a maior mortalidade no sexo masculino e em pacientes com imunossupressão, porém essa associação não alcançou significância estatística. Os pacientes que usaram somente beta-lactâmicos não apresentaram maior mortalidade do que os pacientes que usaram beta-lactâmicos associados a outras classes de antibióticos ou somente outras classes de antibióticos. Examinando-se os pacientes que utiizaram macrolídeos ou quinolonas em seu regime de tratamento, isoladamente ou combinados a outros antibióticos, observou-se que também não houve diferença dos outros pacientes, quanto à mortalidade. Os pacientes com padrão radiológico de pneumonia alveolar tiveram maior mortalidade, e essa diferença apresentou uma significância limítrofe (p= 0,05). Nossa mortalidade (11,9%) foi similar à de Fang et al. (1990), em estudo clássico de 1991 (13,7%); foi também similar à média de mortalidade das PAC internadas não em UTI (12%), relatada pela ATS, no seu último consenso para o tratamento empírico das PAC (ATS, 2001). Foram detectados 3 pacientes com pneumonia por Legionella pneumophila sorogrupo 1 na população estudada: 2 foram diagnosticados por soroconversão e por antigenúria positiva, e o 3º foi diagnosticado somente pelo critério de antigenúria positiva, tendo sorologia negativa, como alguns autores (McWhinney et al., 2000). Dois pacientes com PAC por Legionella não responderam ao tratamento inicial com beta-lactâmicos, obtendo cura com levofloxacina; o 3º paciente foi tratado somente com betalactâmicos, obtendo cura. Conclusões: A incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6, no HCPA, foi de 5,1%, que representa a incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6 em um hospital geral universitário. Comentários e Perspectivas: Há necessidade de se empregar métodos diagnósticos específicos para o diagnóstico das pneumonias por Legionella em nosso meio, como a cultura, a sorologia com detecção de todas as classes de anticorpos, e a detecção do antígeno urinário, pois somente com o uso simultâneo de técnicas complementares pode-se detectar a incidência real de pneumonias causadas tanto por Legionella pneumophila, como por outras espécies. A detecção do antígeno de Legionella na urina é o teste diagnóstico de maior rendimento, sendo recomendado seu uso em todas as PAC que necessitarem internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001); em todos os pacientes com PAC que apresentarem fatores de risco potenciais para legionelose (Marrie, 2001); e para o diagnóstico etiológico das pneumonias graves (ATS, 2001). Seu uso é indicado, com unanimidade na literatura, para a pesquisa de legionelose nosocomial e de surtos de legionelose na comunidade.
Resumo:
Um dos maiores desafios da sociedade moderna é a descoberta de novas alternativas para a destinação de resíduos gerados em processos produtivos na indústria, que diminuam a degradação ambiental visando o progresso sustentável. A mudança na forma de enfrentar o problema, passando a valorizar o resíduo tratando-o com “status” de matéria-prima, através da incorporação em misturas asfálticas, minimiza a exploração de matéria-prima natural com ganho ambiental, tecnológico e econômico. Nesta pesquisa, aplicam-se métodos tradicionais de laboratório e de campo, que possibilitam avaliar o comportamento estrutural e ambiental da camada asfáltica com os resíduos industriais incorporados. Apresentam-se as propriedades avaliadas, comparando-as com propriedades usualmente verificadas em misturas do tipo cbuq, analisando as vantagens e desvantagens, a fim de estabelecer metodologia padronizada para avaliação do desempenho das misturas asfálticas estudadas, auxiliando àqueles que tem interesse na utilização de “ melhor compreensão da natureza dos materiais e quais propriedades necessitam ser avaliadas para possibilitar o seu uso em aplicações de pavimentos. A aplicação da metodologia Marshall, de ensaios de resistência à tração e módulo de resiliência mostraram comportamento mecânico adequado, e as relações de MR/Rt forneceram indicativo de leve aumento na rigidez e vida de fadiga semelhante às misturas convencionais Para avaliação ambiental os métodos empregados basearam-se nas exigências preconizadas pela ABNT, referentes à amostragem, classificação, lixiviação e solubilização de resíduos, não sendo observadas alterações na emissão de contaminantes. Os resultados mostraram o potencial da abordagem realizada, demonstrando que podem ser aplicados os mesmos métodos, procedimentos e equipamentos usualmente empregados na pavimentação rodoviária. Por fim, apresentam-se metodologia empregada na implantação de um trecho experimental, sob ação de cargas reais de tráfego e variações climáticas, e proposta de monitoramento ao longo da vida útil do pavimento, a fim de verificar o comportamento e estabelecer padrões de desempenho de misturas asfálticas incorporadas com resíduos industriais.
Resumo:
O mineral columbita-tantalita (muitas vezes chamado simplesmente columbita,para Nb>Ta,ou tantalita,paraNb
Resumo:
Este trabalho tem como objetivo a análise de um conjunto de obras de filiação modernista brasileira, que têm como elemento comum a estrutura exposta. O período delimitado inicia em 1941 e termina em 1957, antes de Brasília, sempre considerando as datas dos projetos. Este é um período de afirmação da arquitetura brasileira. Situando os exemplares neste contexto, foram formuladas as hipóteses de vínculos conceituais com os movimentos artísticos e vertentes arquitetônicas da época no panorama internacional, da mesma forma que foram investigadas, internamente, no país, como se articularam as novas idéias. Num quadro amplo, a valorizada produção arquitetônica nacional destas décadas, repercutiu em todo o mundo. Fartamente publicada por revistas estrangeiras, no início dos anos 50, a arquitetura brasileira passa a gerar influência nos rumos do modernismo internacional. Afirmando-se através de uma linha tectônica do modernismo, com origem no racionalismo estrutural e eminentemente corbusiana, toma seu próprio caminho com base na cultura e possibilidades tecnológicas locais. Os edifícios com estruturas externas, como um exoesqueleto, contribuem para a consolidação da identidade arquitetônica brasileira. Nos exemplos aqui apresentados, de autoria de Oscar Niemeyer, Affonso Eduardo Reidy e Lina Bo Bardi, de temas diversos, foram investigados os débitos e contribuições de cada projeto aos seus referenciais e à produção subseqüente. O texto escrito está acompanhado de muitas ilustrações, que são parte importante do trabalho, integram o todo e é material fundamental para o entendimento e conclusões do leitor.
Resumo:
O objetivo deste trabalho foi estudar o comportamento em fadiga de um gancho reduzido do tipo empregado como conector/desconector para plataformas flutuantes de extração de petróleo. Ganchos são componentes mecânicos muito utilizados em aplicações industriais e dimensionados segundo os critérios da mecânica estática. A sua utilização em estruturas offshore é recente e requer a avaliação de seu desempenho em fadiga. A influência de tensões residuais compressivas na seção mais solicitada do gancho foi avaliada nos ensaios. Estas tensões foram geradas por um teste de carga que implica em um esforço de tração que ultrapassa o limite elástico do material. A região da superfície do gancho que sofreu deformação plástica fica comprimida pelo restante do material do gancho carregado no regime elástico que tenta retornar. O mesmo efeito é observado na autofretagem de tubos ou shot peening de componentes aeronáuticos. Foram utilizados ganchos DIN 0.12, que apresentam dimensões reduzidas, para a caracterização mecânica através de ensaios de fadiga e a determinação da curva de Wöhler. Esses ensaios envolveram a comparação entre os ganchos que sofreram a carga de pré-teste (com tensões residuais) e os que não sofreram. Também foi avaliada a influência de defeitos de fundição na vida em fadiga dos ganchos. Os ganchos foram caracterizados metalurgicamente através de análise microestrutural e tamanho de grão ASTM utilizando-se Microscopia Óptica e Eletrônica de Varredura. Foram efetuadas medições de tensões residuais através do Método do Furo em ganchos instrumentados com extensômetros resistivos elétricos. As tensões residuais compressivas induzidas pelo teste de carga tiveram grande influência nos testes de fadiga, aumentando a performance dos ganchos e assegurando sua integridade estrutural.