922 resultados para Complexo Sporothrix


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A área bancária é um dos setores que mais têm investido em tecnologia de informação (TI), tendo seus produtos e serviços fundamentalmente apoiados por essa tecnologia. Apesar de complexo, mostra-se necessário e importante identificar e avaliar os possíveis efeitos de sua aplicação nas organizações, de forma a poder-se comprovar se os altos investimentos em TI fazem diferença. Nesta dissertação, comparam-se as percepções dos executivos dos bancos argentinos, uruguaios, chilenos, norte-americanos e brasileiros, quanto ao impacto proporcionado pela TI nas variáveis estratégicas das organizações bancárias. O estudo é uma pesquisa survey descritiva, que utilizou como instrumento de coleta de dados o questionário desenvolvido por MAÇADA & BECKER (2001). Para tal, foram realizados testes de validação (primeiramente, com os dados dos três países latino-americanos de língua hispânica e, depois, com os dados dos cinco países envolvidos na pesquisa). Com a realização deste estudo, obtiveram-se, como principais resultados, quatro importantes achados: (1) a Competitividade, os Produtos e Serviços e os Tomadores de Recursos Financeiros (clientes) são as variáveis estratégicas mais afetadas pela TI; Preços e Estrutura de Custos e Capacidade são as variáveis estratégicas menos afetadas pela TI; (2) os executivos dos bancos argentinos e uruguaios, e norte-americanos e uruguaios apresentam percepções muito semelhantes, quanto ao impacto de TI nas organizações bancárias às quais pertencem, enquanto as amostras brasileira e norte-americana apresentam as percepções mais distintas entre si; (3) não há diferença entre executivos de TI e de outras áreas funcionais quanto à percepção dos impactos de TI nas variáveis estratégicas; e (4) o impacto da TI na Competitividade está significativamente relacionado com os impactos da TI nos Tomadores de Recursos Financeiros, Governos e Países, Produtos e Serviços e Estrutura de Custos e Capacidade. A pesquisa apontou, ainda, as variáveis estratégicas mais afetadas pela TI nos setores bancários argentino, uruguaio e chileno. Espera-se que este estudo sobre o impacto de TI nas organizações constitua-se, para os executivos bancários, em ferramenta que possibilite apoiar no planejamento de TI e avaliar a sua utilização, bem como sirva de suporte para a realização de futuras pesquisas sobre esta temática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo fornecer subsídios para uma futura classificação das lagoas costeiras do Sub-sistema Tramandaí, localizado na região norte do Complexo Lagunar Costeiro do Rio Grande do Sul, baseando-se na composição da comunidade fitoplanctônica em seis lagoas que fazem parte deste sistema: Lagoa Marcelino, Peixoto, Pinguela, Palmital, Malvas e do Passo. Considerar-se-ão os atributos da comunidade (densidade e diversidade) e suas relações com as variáveis abióticas. As amostragens foram trimestrais no período de maio/97 a janeiro/98, ao longo de um gradiente de diluição e autodepuração dos dejetos urbanos que a cidade de Osório despeja nas águas da Lagoa Marcelino. As análises qualitativa e quantitativa do fitoplâncton foram realizadas em microscopia binocular; para a quantificação utilizou-se a câmara de contagem Sedwick-Rafter. Na análise quali-quantitativa foram identificados 205 táxons em níveis genérico, específico e infra-específico. A comunidade fitoplanctônica apresentou-se de maneira distinta nas lagoas, com Chlorophyceae predominando nos períodos mais quentes na Lagoa Marcelino. No período de temperaturas mais baixas na Lagoa Marcelino predominou Cryptophyceae, nas lagoas Peixoto e Pinguela Cyanophyceae dominou, nas outras lagoas Cyanophyceae predominou no outono e nas outras estações do ano predominou Bacillariophyceae.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A temperatura baixa é um estresse comum na cultura do arroz em regiões temperadas, portanto a tolerância ao frio é uma característica altamente desejável em genótipos brasileiros de arroz cultivados no sul do país, onde as temperaturas baixas prejudicam o estabelecimento da lavoura e diminuem o redimento de grãos. O mapeamento molecular é uma estratégia promissora para o estudo e compreensão de de características com controle complexo, tais como a tolerância ao frio em arroz. Com base nisso, os objetivos deste trabalho foram estudar a herança e herdabilidade das características de tolerância ao frio e das características de importância agronômica a serem maepadas, desenvolver um mapa molecular a partir da população segregante F2 proveniente do cruzamento IRGA 417 (Índica) x Quilla 66304 (Japônica) e identificar locos de características quantitativas (QTLs) para a tolerância ao frio no período de germinação e vegetativo e características agronômicas que diferenciam estas duas subespécies. Por fim, investigar a possibilidade de obter indivíduos recombinantes com caracteristicas agronômicas desejáveis e toleância ao frio em uma população F2 do cruzamento entre IRGA 417 x Quilla 66304. As análises das distrbuições de freqüências da geração F2 evidenciaram a dificuldade de estimar o número de genes que controlam as características analisadas, sendo que todas elas apresentam distribuição contínua e segregação transgressiva em relação aos genitores. O mapa foi construído com base em oito marcadores SSR e 42 marcadores do tipo AFLP com uma densidade média de marcador a cada 38,8 cM, sendo o comprimento total do mapa de 581,6 cM. Foram identificados cinco QTLs, sendo que um deles confere tolerância ao frio no período de germinação, e explica 15,9% da variação fenotípica deste caráteer. O outros quatro QTLs identificados foram para largura do grgão (21,3%), esterilidade de espiguetas (61,6%), estatura das plantas (34, 5%) e comprimento do grão (21,9%). A detecção de um QTL associado à tolerância ao frio no período de germinação, e outros QTLs associados à demais características a viabilidade deste tipo de análise. Entretanto, um mapa de ligação enriquecido é nceessário para permitir a detecção de outros QTLs associados às características estudadas. Plantas recombinantes com alto recrescimento de coleóptilo e outrras caracteristicas agronômicas desejáveis foram encontradas, o que evidencia o potencial da população proveniente de IRGA 417 x Quilla 66304 para o melhoramento da tolerância ao frio de genótipos de arroz adaptados ao Sul do Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A hiperargininemia é um erro inato do ciclo da uréia causado pela deficiência na atividade da arginase hepática. Esta doença é caracterizada bioquimicamente pelo acúmulo tecidual de arginina (Arg). Retardo mental e outras alterações neurológicas, cujos mecanismos são ainda desconhecidos, são sintomas comuns em pacientes hiperargininêmicos. O óxido nítrico (NO) é gerado em todas as células do sistema nervoso central (SNC) pela enzima óxido nítrico sintase (NOS), a qual, na presença de oxigênio molecular, tetraidrobiopterina e outros cofatores, catalisa a conversão de Arg em NO e citrulina. Em condições normais, o NO desempenha importante papel fisiológico no SNC, como por exemplo, na liberação de neurotransmissores e expressão gênica. Quando há formação excessiva, o NO torna-se um importante mediador de neurotoxicidade Trabalhos realizados em nosso laboratório mostraram que a administração aguda de Arg em ratos diminui a atividade da Na+,K+-ATPase e aumenta o estresse oxidativo cerebral. Outros estudos mostraram que a administração de Arg prejudica a memória em ratos. Estes resultados foram prevenidos pelo Nϖ-nitro-L-arginine methyl ester (L-NAME), um inibidor competitivo da NOS, sugerindo que a administração de Arg altera estes parâmetros através do NO e/ou estresse oxidativo. Considerando que a administração de Arg aumenta o estresse oxidativo e que estudos mostram que o NO inibe a cadeia de transporte de elétrons provavelmente comprometendo a produção de energia, no presente trabalho, nós investigamos o efeito da administração aguda de Arg sobre alguns parâmetros do metabolismo energético (produção de CO2, captação de glicose, produção de lactato e atividades da succinato desidrogenase, complexo II e IV da cadeia respiratória) em hipocampo de ratos. Também testamos o efeito do L-NAME sobre os efeitos produzidos pela Arg Ratos adultos de 60 dias foram tratados com uma única injeção intraperitoneal de Arg, de acordo com o protocolo estabelecido por Buchmann e colaboradores (1996). A dose de Arg (0,8 g/Kg) usada atinge níveis plasmáticos semelhantes àqueles encontrados em pacientes hiperargininêmicos (1,5 mM). Os resultados do presente trabalho mostraram que a administração de Arg aumentou significativamente a produção de lactato e diminuiu a produção de CO2 e a captação de glicose, bem como as atividades da succinato desidrogenase e do complexo II, e que a injeção simultânea de L-NAME preveniu estes efeitos, exceto a produção de CO2 e a produção de lactato. No entanto, não houve alteração na atividade da citocromo c oxidase (complexo IV). Se estes achados também ocorrerem em humanos, pode-se presumir que a Arg prejudica o metabolismo energético, possivelmente através da geração de radicais livres induzida pela formação de NO e/ou da formação de poliaminas, contribuindo assim para a disfunção cerebral observada na hiperargininemia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: O diagnóstico microbiológico da infecção por Legionella é complexo, pois a bactéria não é visualizada à coloração de Gram no escarro, e sua cultura não é realizada na maioria dos laboratórios clínicos. A imunofluorescência direta nas secreções respiratórias tem baixa sensibilidade, em torno de 40% e a técnica da “PCR” não é ainda recomendada para o diagnóstico clínico (CDC, 1997). A detecção de anticorpos no soro é a técnica mais utilizada, e o critério definitivo é a soroconversão para no mínimo 1:128, cuja sensibilidade é de 70 a 80% (Edelstein, 1993). Como critérios diagnósticos de possível pneumonia por Legionella, eram utilizados: título único de anticorpos a L pneumophila positivo na diluição 1:256, em paciente com quadro clínico compatível (CDC, 1990) e o achado de antígeno a Legionella na urina (WHO, 1990). Nos últimos anos, porém, com o uso crescente do teste de antigenúria, foram detectados casos de pneumonia por Legionella, que não eram diagnosticados por cultura ou sorologia, tornando-o método diagnóstico de certeza para o diagnóstico de pneumonia por Legionella (CDC, 1997). Por sua fácil execução, resultado imediato, e alta sensibilidade - de 86% a 98% (Kashuba & Ballow, 1986; Harrison & Doshi, 2001), tem sido recomendado para o diagnóstico das PAC que necessitam internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001; Marrie, 2001), especialmente em UTI (ATS, 2001). Vários estudos documentaram baixo valor preditivo positivo do título único positivo de 1:256, tornando-o sem valor para o diagnóstico da pneumonia por Legionella, exceto, talvez, em surtos (Plouffe et al., 1995). Outros detectaram alta prevalência de anticorpos positivos na diluição 1:256 na população, em pessoas normais (Wilkinson et al., 1983; Nichol et al., 1991). A partir de 1996, o CDC de Atlanta recomendou que não seja mais utilizado o critério de caso provável de infecção por Legionella pneumophila por título único de fase convalescente ≥1:256, por falta de especificidade(CDC, 1997). A pneumonia por Legionella é raramente diagnosticada, e sua incidência é subestimada. Em estudos de PAC, a incidência da pneumonia por Legionella nos EUA, Europa, Israel e Austrália, foi estimada entre 1% a 16% (Muder & Yu, 2000). Nos EUA, foi estimado que cerca de 8 000 a 23 000 casos de PAC por Legionella ocorrem anualmente, em pacientes que requerem hospitalização (Marston et al., 1994 e 1977). No Brasil, a incidência de PAC causadas por Legionella em pacientes hospitalizados é tema de investigação pertinente, ainda não relatado na literatura. Objetivo: detectar a incidência de pneumonias causadas por Legionella pneumophila sorogrupos 1 a 6, em pacientes que internaram no Hospital de Clínicas de Porto Alegre por PAC, por um ano. Material e Métodos: o delineamento escolhido foi um estudo de coorte (de incidência), constituída por casos consecutivos de pneumonia adquirida na comunidade que internaram no HCPA de 19 de julho de 2000 a 18 de julho de 2001. Para a identificação dos casos, foram examinados diariamente o registro computadorizado das internações hospitalares, exceto as internações da pediatria e da obstetrícia, sendo selecionados todos os pacientes internados com o diagnóstico de pneumonia e de insuficiência respiratória aguda. Foram excluídos aqueles com menos de 18 anos ou mais de 80 anos; os procedentes de instituições, HIV-positivos, gestantes, pacientes restritos ao leito; e portadores de doença estrutural pulmonar ou traqueostomias. Foram excluídos os pacientes que tivessem tido alta hospitalar nos últimos 15 dias, e aqueles já incluídos no decorrer do estudo. Os pacientes selecionados foram examinados por um pesquisador, e incluídos para estudo se apresentassem infiltrado ao RX de tórax compatível com pneumonia, associado a pelo menos um dos sintomas respiratórios maiores (temperatura axilar > 37,8ºC, tosse ou escarro; ou dois sintomas menores (pleurisia, dispnéia, alteração do estado mental, sinais de consolidação à ausculta pulmonar, mais de 12 000 leucócitos/mm3). O estudo foi previamente aprovado pela Comissão de Ética em Pesquisa do HCPA. Os pacientes eram entrevistados por um pesquisador, dando seu consentimento por escrito, e então seus dados clínicos e laboratoriais eram registrados em protocolo individual. Não houve interferência do pesquisador, durante a internação, exceto pela coleta de urina e de sangue para exame laboratoriais específicos da pesquisa. Os pacientes eram agendados, no ambulatório de pesquisa, num prazo de 4 a 12 semanas após sua inclusão no estudo, quando realizavam nova coleta de sangue, RX de tórax de controle, e outros exames que se fizessem necessários para esclarecimento diagnóstico.Todos os pacientes foram acompanhados por 1 ano, após sua inclusão no estudo.Foram utilizadas a técnica de imunofluorescência indireta para detecção de anticorpos das classes IgG, IgM e IgA a Legionella pneumophila sorogrupos 1 a 6 no soro, em duas amostras, colhidas, respectivamente, na 1ª semana de internação e depois de 4 a 12 semanas; e a técnica imunológica por teste ELISA para a detecção do antígeno de Legionella pneumophila sorogrupo 1 na urina, colhida na primeira semana de internação. As urinas eram armazenadas, imediatamente após sua coleta, em freezer a –70ºC, e depois descongeladas e processadas em grupos de cerca de 20 amostras. A imunofluorescência foi feita no laboratório de doenças Infecciosas da Universidade de Louisville (KY, EUA), em amostras de soro da fase aguda e convalescente, a partir da diluição 1:8; e a detecção do antígeno de Legionella pneumophila sorogrupo 1, nas amostras de urina, foi realizada no laboratório de pesquisa do HCPA, pelos investigadores, utilizando um kit comercial de teste ELISA fabricado por Binax (Binax Legionella Urinary Enzyme Assay, Raritan, EUA). As urinas positivas eram recongeladas novamente, para serem enviadas para confirmação no mesmo laboratório americano, ao fim do estudo. Foram adotados como critérios definitivos de infecção por Legionella pneumophila sorogrupos 1 a 6, a soroconversão (elevação de 4 vezes no título de anticorpos séricos entre o soro da fase aguda e da fase convalescente para no mínimo 1:128); ou o achado de antígeno de L pneumophila sorogrupo 1 na urina não concentrada, numa razão superior a 3, conforme instruções do fabricante e da literatura.Os pacientes foram classificados, de acordo com suas características clínicas, em 1º) portadores de doenças crônicas (doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal); 2º) portadores de doenças subjacentes com imunossupressão; 3º) pacientes hígidos ou com outras doenças que não determinassem insuficiência orgânica. Imunossupressão foi definida como esplenectomia, ser portador de neoplasia hematológica, portador de doença auto-imune, ou de transplante; ou uso de medicação imunossupressora nas 4 semanas anteriores ao diagnóstico (Yu et al., 2002b); ou uso de prednisolona 10 mg/dia ou equivalente nos últimos 3 meses (Lim et al., 2001). As características clínicas e laboratoriais dos pacientes que evoluíram ao óbito por pneumonia foram comparados àquelas dos pacientes que obtiveram cura. Para a análise das variáveis categóricas, utilizou-se o teste qui-quadrado de Pearson ou teste exato de Fisher. Para as variáveis numéricas contínuas, utilizou-se o teste “t“ de Student. Um valor de p< 0,05 foi considerado como resultado estatisticamente significativo (programas SPSS, versão 10). Foi calculada a freqüência de mortes por pneumonia na população estudada, adotando-se a alta hospitalar como critério de cura. Foi calculada a incidência cumulativa para pneumonia por Legionella pneumophila sorogrupos 1 a 6, em um hospital geral, no período de 1 ano. Resultados: durante um ano de estudo foram examinados 645 registros de internação, nos quais constavam, como motivo de baixa hospitalar, o diagnóstico de pneumonia ou de insuficiência respiratória aguda; a maioria desses diagnósticos iniciais não foram confirmados. Desses 645 pacientes, foram incluídos no estudo 82 pacientes, nos quais os critérios clínicos ou radiológicos de pneumonia foram confirmados pelos pesquisadores. Durante o acompanhamento desses pacientes, porém, foram excluídos 23 pacientes por apresentarem outras patologias que mimetizavam pneumonia: DPOC agudizado (5), insuficiência cardíaca (3), tuberculose pulmonar (2), colagenose (1), fibrose pulmonar idiopática (1), edema pulmonar em paciente com cirrose (1), somente infecçâo respiratória em paciente com sequelas pulmonares (4); ou por apresentarem critérios de exclusão: bronquiectasias (4), HIV positivo (1), pneumatocele prévia (1). Ao final, foram estudados 59 pacientes com pneumonia adquirida na comunidade, sendo 20 do sexo feminino e 39 do sexo masculino, com idade entre 24 e 80 anos (média de 57,6 anos e desvio padrão de ±10,6). Tivemos 36 pacientes com doenças subjacentes classificadas como “doenças crônicas”, dos quais 18 pacientes apresentavam mais de uma co-morbidade, por ordem de prevalência: doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal; neoplasias ocorreram em 9 pacientes, sendo sólidas em 7 pacientes e hematológicas em 2. Dos 59 pacientes, 61% eram tabagistas e 16,9%, alcoolistas. Do total, 10 pacientes apresentavam imunossupressão. Dos demais 13 pacientes, somente um era previamente hígido, enquanto os outros apresentavam tabagismo, sinusite, anemia, HAS, gota, ou arterite de Takayasu. A apresentação radiológica inicial foi broncopneumonia em 59,3% dos casos; pneumonia alveolar ocorreu em 23,7% dos casos, enquanto ambos padrões ocorreram em 15,2% dos pacientes. Pneumonia intersticial ocorreu em somente um caso, enquanto broncopneumonia obstrutiva ocorreu em 5 pacientes (8,5%). Derrame pleural ocorreu em 22% dos casos, e em 21 pacientes (35%) houve comprometimento de mais de um lobo ao RX de tórax. Foram usados beta-lactâmicos para o tratamento da maioria dos pacientes (72,9%9). A segunda classe de antibióticos mais usados foi a das fluoroquinolonas respiratórias, que foram receitadas para 23 pacientes (39,0%), e em 3º lugar, os macrolídeos, usados por 11 pacientes (18,6%). Apenas 16 pacientes não usaram beta-lactâmicos, em sua maioria recebendo quinolonas ou macrolídeos. Dos 43 pacientes que usaram beta-lactâmicos, 25 não usaram nem macrolídeos, nem quinolonas. Em 13 pacientes as fluoroquinolonas respiratórias foram as únicas drogas usadas para o tratamento da pneumonia. Do total, 8 pacientes foram a óbito por pneumonia; em outros 3 pacientes, o óbito foi atribuído a neoplasia em estágio avançado. Dos 48 pacientes que obtiveram cura, 33 (68,7%) estavam vivos após 12 meses. Os resultados da comparação realizada evidenciaram tendência a maior mortalidade no sexo masculino e em pacientes com imunossupressão, porém essa associação não alcançou significância estatística. Os pacientes que usaram somente beta-lactâmicos não apresentaram maior mortalidade do que os pacientes que usaram beta-lactâmicos associados a outras classes de antibióticos ou somente outras classes de antibióticos. Examinando-se os pacientes que utiizaram macrolídeos ou quinolonas em seu regime de tratamento, isoladamente ou combinados a outros antibióticos, observou-se que também não houve diferença dos outros pacientes, quanto à mortalidade. Os pacientes com padrão radiológico de pneumonia alveolar tiveram maior mortalidade, e essa diferença apresentou uma significância limítrofe (p= 0,05). Nossa mortalidade (11,9%) foi similar à de Fang et al. (1990), em estudo clássico de 1991 (13,7%); foi também similar à média de mortalidade das PAC internadas não em UTI (12%), relatada pela ATS, no seu último consenso para o tratamento empírico das PAC (ATS, 2001). Foram detectados 3 pacientes com pneumonia por Legionella pneumophila sorogrupo 1 na população estudada: 2 foram diagnosticados por soroconversão e por antigenúria positiva, e o 3º foi diagnosticado somente pelo critério de antigenúria positiva, tendo sorologia negativa, como alguns autores (McWhinney et al., 2000). Dois pacientes com PAC por Legionella não responderam ao tratamento inicial com beta-lactâmicos, obtendo cura com levofloxacina; o 3º paciente foi tratado somente com betalactâmicos, obtendo cura. Conclusões: A incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6, no HCPA, foi de 5,1%, que representa a incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6 em um hospital geral universitário. Comentários e Perspectivas: Há necessidade de se empregar métodos diagnósticos específicos para o diagnóstico das pneumonias por Legionella em nosso meio, como a cultura, a sorologia com detecção de todas as classes de anticorpos, e a detecção do antígeno urinário, pois somente com o uso simultâneo de técnicas complementares pode-se detectar a incidência real de pneumonias causadas tanto por Legionella pneumophila, como por outras espécies. A detecção do antígeno de Legionella na urina é o teste diagnóstico de maior rendimento, sendo recomendado seu uso em todas as PAC que necessitarem internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001); em todos os pacientes com PAC que apresentarem fatores de risco potenciais para legionelose (Marrie, 2001); e para o diagnóstico etiológico das pneumonias graves (ATS, 2001). Seu uso é indicado, com unanimidade na literatura, para a pesquisa de legionelose nosocomial e de surtos de legionelose na comunidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é resolvido o problema da minimização do volume de estruturas bidimensionais contínuas submetidas a restrições sobre a flexibilidade (trabalho das forças externas) e sobre as tensões, utilizando a técnica chamada otimização topológica, que visa encontrar a melhor distribuição de material dentro de um domínio de projeto pré-estabelecido. As equações de equilíbrio são resolvidas através do método dos elementos finitos, discretizando a geometria e aproximando o campo de deslocamentos. Dessa forma, essas equações diferenciais são transformadas em um sistema de equações lineares, obtendo como resposta os deslocamentos nodais de cada elemento. A distribuição de material é discretizada como uma densidade fictícia constante por elemento finito. Esta densidade define um material isotrópico poroso de uma seqüência pré-estabelecida (SIMP). A otimização é feita através da Programação Linear Seqüencial. Para tal, a função objetivo e as restrições são sucessivamente linearizadas por expansão em Série de Taylor. A análise de sensibilidade para a restrição de flexibilidade é resolvida utilizando o cálculo da sensibilidade analítico adaptado para elementos finitos de elasticidade plana. Quando as restrições consideradas são as tensões, o problema torna-se mais complexo. Diferente da flexibilidade, que é uma restrição global, cada elemento finito deve ter sua tensão controlada. A tensão de Von Mises é o critério de falha considerado, cuja sensibilidade foi calculada de acordo com a metodologia empregada por Duysinx e Bendsøe [Duysinx e Bendsøe, 1998] Problemas como a instabilidade de tabuleiro e dependência da malha sempre aparecem na otimização topológica de estruturas contínuas. A fim de minimizar seus efeitos, um filtro de vizinhança foi implementado, restringindo a variação da densidade entre elementos adjacentes. Restrições sobre as tensões causam um problema adicional, conhecido como singularidade das tensões, fazendo com que os algoritmos não convirjam para o mínimo global. Para contornar essa situação, é empregada uma técnica matemática de perturbação visando modificar o espaço onde se encontra a solução, de forma que o mínimo global possa ser encontrado. Esse método desenvolvido por Cheng e Guo [Cheng e Guo, 1997] é conhecido por relaxação-ε e foi implementado nesse trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O acúmulo de mutações, alterações incorporadas ao patrimônio genético de células somáticas e germinais, pode causar redução de populações naturais que são críticas para a cadeia alimentar, pondo em risco a sobrevivência de determinadas espécies. Embora o dano causado pela contaminação química ocorra em nível molecular, existem efeitos emergentes nas populações, tais como perda da diversidade genética, que não é previsível com base somente no conhecimento dos mecanismos de toxicidade não genéticos. Alguns compostos de origem antrópica tendem a adsorver no material orgânico do sedimento, sendo concentrados ao longo do tempo. Contaminantes ambientais podem ser mais associados com a porção fina dos sedimentos (silte ou argila) do que com a grosseira (areia ou cascalho). O presente estudo avaliou a atividade mutagênica e citotóxica de extratos moderadamente polares de sedimento em três pontos durante 5 coletas realizadas nos anos de 1999 e 2000 no arroio Bom Jardim, que drena a região do Complexo Petroquímico, localizado no município de Triunfo, Rio Grande do Sul. Foi utilizado na avaliação da mutagenicidade e citotoxicidade o ensaio Salmonella/microssoma, método de microssuspensão. A análise de granulometria mostrou um conteúdo de partículas finas em média menor no ponto em frente ao complexo, sendo este também o ponto amostral com menor percentual de material orgânico extraído. Observou-se baixa atividade mutagênica nos diferentes locais estudados, variando de 3,3% até 8,3%, sendo a citototoxicidade o mais importante efeito biológico observado na região, variando de 20% até 40%, somados os resultados dos ensaios em presença e ausência de metabolização externa. Os pontos com maior contaminação estão localizados em frente e a jusante da área industrial, havendo uma distribuição gradativa e sazonal das respostas à medida que o local se aproxima da foz do arroio. Em ensaios com ausência de fração de metabolização hepática, as respostas para mutagênese e citotoxicidade foram mais freqüentes, sendo os danos do tipo erro no quadro de leitura os mais presentes. A determinação da atividade mutagênica e citotóxica em amostras de sedimento mostrou-se importante na determinação da qualidade ambiental, apesar da composição química desta matriz ser bastante complexa. O ensaio Salmonella/microssoma monitorando danos moleculares e, principalmente citotoxicidade, foi uma ferramenta importante no diagnóstico da presença de poluentes. A possibilidade de avaliar danos precoces, através deste ensaio, promove a melhoria da qualidade ambiental e motiva ações de preservação do patrimônio genético da fauna e flora atingidas pela atividade antrópica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre as doenças causadas por bactérias do gênero Mycobacterium, a tuberculose por M. tuberculosis é a mais conhecida. O diagnóstico da doença é feito utilizando-se um conjunto de exames que possibilitam a identificação da mesma (WATT, 2000). Contudo, sabe-se que o diagnóstico combinado de microscopia direta e com o posterior isolamento em meio de cultivo é o “padrão-ouro”. A principal desvantagem desse método é que tal bactéria possui um crescimento lento (cerca de 8 semanas). Recentemente, a detecção de doenças através da técnica de reação em cadeia da polimerase (PCR) tem proporcionado avanços significativos no diagnóstico. O uso da amplificação específica de genes, para identificar a M. tuberculosis, tais como rDNA 16S, IS6110 ou a região intergênica senX3-regX3, tem apresentado algumas restrições, ao nível de confiabilidade e sensibilidade, para a aplicação da técnica de PCR. O presente estudo mostra a construção e a aplicação de um novo alvo para a aplicação da PCR no diagnóstico da tuberculose, baseado no ensaio da diferença de organização gênica do operon plcA, B e C diferenciando a M. tuberculosis das demais micobactérias. Neste trabalho, foram examinadas 273 amostras de pacientes com suspeita de tuberculose, sendo estas submetidas ao estudo comparativo da técnica de PCR versus cultivo (padrão ouro). A PCR amplificou fragmentos de 439pb. Os resultados mostram 93,7% de acurácia para PCR/Cultivo (p<000,1), 93,1% de sensibilidade com intervalo de confiança de 88,7-96,0 e especificidade de 96,4% com intervalo de confiança de 96,4-99,4. O valor da estatística Kappa (k) foi de 0,82 com erro padrão de 0,041, demonstrando um alinhamento quase perfeito para a verificação do grau de concordância entre os testes. Desta forma, o uso desta nova região para a amplificação da PCR se mostra uma importante e confiável ferramenta no diagnóstico específico da tuberculose. Outra região que compreende parte dos genes mbaA e inhA foi utilizada para diferenciar o Complexo tuberculosis do Complexo avium. Porém, novos experimentos serão necessários para o emprego desta região como uma ferramenta de diagnóstico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avaliar proficiência oral em uma língua estrangeira é um processo que requer um criterioso treinamento dos avaliadores e grades de avaliação precisas o suficiente para abarcar as características da proficiência dos candidatos. O processo de avaliação oral pode tornar-se mais complexo quando se trata de avaliar línguas próximas, como o português e o espanhol, pois a semelhança entre as línguas traz particularidades que podem não estar previstas na grade de avaliação. O exame de proficiência em Português para Estrangeiros Celpe-Bras, desenvolvido pelo Ministério da Educação do Brasil, testa a capacidade do candidato de compreender e de produzir a língua de forma adequada em situações reais de comunicação. Para tanto, a grade de avaliação do exame é expressa em descritores de desempenho do candidato. Esses descritores, no entanto, nem sempre contemplam toda a variação no desempenho dos candidatos e, por serem ainda bastante amplos, dificultam a determinação do nível de proficiência, principalmente quando os candidatos são falantes de línguas próximas ao português. Este trabalho tem como objetivo fazer uma descrição detalhada do desempenho de candidatos falantes de espanhol no exame Celpe-Bras, apontando as características da sua proficiência. O corpus para essa análise é constituído de doze entrevistas de candidatos falantes de espanhol, dos quais quatro obtiveram Certificado Avançado, quatro Certificado Intermediário e quatro não receberam certificação. A partir da análise dos dados, foram selecionadas categorias relevantes para a avaliação dos candidatos e, de acordo com a adequação ou inadequação apresentadas nessas categorias, pudemos descrever o desempenho dos candidatos em cada um dos níveis de certificação e explicitar melhor qual a diferença entre um nível de certificação e outro. Os resultados deste trabalho pretendem contribuir para que os avaliadores possam se basear em descrições mais detalhadas de desempenho para avaliar a proficiência oral de falantes de espanhol, aperfeiçoando assim o processo de avaliação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta o programa Seis Sigma e o ramo petroquímico. O objetivo deste trabalho é realizar uma análise crítica do processo de implantação de um projeto Seis Sigma em um setor de uma indústria do ramo petroquímico. A empresa focada desejava obter a diminuição da variabilidade presente na diferença entre os níveis de viscosidade da entrada e da saída em um setor de coagulação e acabamento de látex. Para tanto, é usado um método chamado DMAIC, termo provindo das palavras Define, Measure, Analyze, Improve e Control, que identificam cada uma de suas fases. Na dissertação são abordados Análise dos Modos de Falha e seus Efeitos (FMEA), Projetos de Experimentos (DOE), Controle Estatístico de Processo (CEP), Análise de Sistemas de Medição (ASM), Aprendizagem Organizacional, PDCA e Desdobramento da Função Qualidade (QFD). O autor faz uso da pesquisa-ação, com uma abordagem basicamente quantitativa. Na fase Analisar do projeto detectou-se uma ineficiência do sistema de medição para os objetivos do projeto, assim como, no laboratório as leituras a partir de borracha seca apresentam menor variabilidade que as leituras a partir do látex em estado aquoso. A idade dos rotores e a pressão utilizada nos viscosímetros não são significativas para a redução da variabilidade nas leituras. Porém, a adoção de banho térmico no látex e o reposicionamento dos termosensores nos viscosímetros mostraram-se eficazes. Na fase Controlar ao final do projeto ficou evidenciada uma redução no número de lotes redirecionados. A principal dificuldade encontrada na implementação do método DMAIC foi o acompanhamento inadequado dos indicadores técnicos e financeiros. Houve atrasos no cronograma em função da má definição dos papéis das pessoas envolvidas no projeto, pela falta de uma agenda clara de trabalho e pelo uso de um problema muito complexo em um único projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho, pretende-se abordar a forma como o sistema jurídico reage e assimila, em suas estruturas, a variabilidade social. Trata-se de um processo complexo de aquisição de contingência e de conquistas evolutivas que culminou, até o momento, na estabilização do direito positivo. Para isso, partiremos das contribuições feitas por Luhmann à teoria da evolução, dentro de uma perspectiva capaz não só de demonstrar as transformações pelas quais o direito passou ao longo do tempo, mas também de confrontá-las à luz da imprevisibilidade, da contingência e da complexidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudo de caso sobre a construção de identidades sociais no bairro da Maré. Descreve o processo de formação das favelas cariocas e, em particular, da Favela da Maré, desde o início de sua ocupação até a criação do bairro, instituído pelo poder público municipal, na XXXª Região Administrativa, que abrange 15 localidades, comumente reconhecidas na cidade do Rio de Janeiro como o Conjunto de favelas da Maré ou Complexo da Maré. Discute as reações dos moradores locais ao fato do bairro ter sido criado a partir da favela, espaço cujas representações estão hegemonicamente associadas a tudo o que se opõe à existência da cidade. Analisa as ações empreendidas pela organização não governamental Centro de Estudos e Ações Solidárias da Maré (CEASM), no sentido de “inventar” o bairro, tendo como princípios norteadores de sua atuação, a valorização do lugar e de sua história; as memórias dos moradores; e o protagonismo dos próprios agentes sociais locais. O estudo apóia-se na análise de fontes orais, e na pesquisa documental e bibliográfica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tecnologia social é um conceito recente, mas sua fundamentação teórica foi inspirada nas idéias do líder indiano Mahatma Gandhi, que popularizou a fiação manual da charkha, uma roca de fiar giratória, como uma solução para diminuir a miséria. O objetivo de uma tecnologia social é produzir um novo patamar de desenvolvimento, que permita o acesso e a produção do conhecimento por toda a população, unindo os saberes acadêmico e popular na busca de soluções sociais inovadoras. O esporte é considerado o maior fenômeno social e cultural da sociedade contemporânea, conectando-se a questões como tempo livre e lazer, mercantilização, espetacularização e inclusão social. Partindo da Grécia Antiga até chegar à sua institucionalização, na Inglaterra do século XIX, o esporte sempre esteve ligado ao contexto educacional. Atualmente, a legislação brasileira reconhece três dimensões do esporte: esporte de rendimento, esporte de participação e esporte educacional. O foco deste estudo é a experiência do Instituto Bola Pra Frente, trabalho social dos tetracampeões mundiais de futebol Jorginho e Bebeto, com esses dois temas: esporte educacional e tecnologia social. Buscamos contribuir para um melhor entendimento desses conceitos e avaliar sua contribuição para a promoção social. Este estudo levanta o histórico e aprofunda os conceitos atuais de tecnologia social: o que caracteriza e quais as implicações de uma tecnologia social, além de experiências de implementação. Como referencial de esporte educacional, esta pesquisa faz um breve histórico do esporte e do futebol, analisando a sua relação com a sociedade, a educação e o terceiro setor. Como referencial prático, este estudo levanta a história do Instituto Bola Pra Frente, aprofundando sua evolução desde 2000, quando foi fundado, no Complexo do Muquiço, no Rio de Janeiro, até os dias atuais, enfatizando quais são os seus conceitos norteadores, sistematizando as informações acerca de sua organização metodológica, metodologia pedagógica e avaliação de impacto social, além da aplicação dos quesitos básicos de uma tecnologia social ao caso do Instituto.