901 resultados para Programação bacteriana
Resumo:
Nas últimas décadas, sistemas de suprimento de energia que utilizam recursos renováveis têm sido estudados e empregados como opção para o fornecimento de energia elétrica em comunidades isoladas em áreas remotas. Devido aos avanços da tecnologia fotovoltaica associada à diminuição de custos e maior conhecimento de seu desempenho, os sistemas fotovoltaicos apresentam-se como uma opção promissora. Neste trabalho apresenta-se o desenvolvimento de um programa computacional de dimensionamento e simulação de sistemas fotovoltaicos autônomos na linguagem de programação Visual Basic 5.0, chamado PVSize, capaz de propor, para uma certa configuração de sistema, o número de baterias e módulos com seu risco de déficit de energia. Este programa tem como finalidade facilitar a interação com o usuário, e poderá ser utilizado como uma ferramenta auxiliar no processo de escolha dos elementos do sistema e estabelecer a melhor configuração através de um acompanhamento anual com base horária dos parâmetros envolvidos. Estes elementos são caracterizados através da implementação de modelos matemáticos propostos por diferentes autores que descrevem o seu desempenho individual. A integração destes modelos através de uma metodologia apropriada levou ao desenvolvimento de um programa completo de dimensionamento e simulação de sistemas fotovoltaicos autônomos. O potencial energético solar é obtido a partir de informações das características climatológicas locais, utilizadas para gerar séries de dados de radiação a partir de modelos estatísticos O programa permite projetar sistemas de suprimento de energia elétrica que atenderão cargas comunitárias (iluminação pública e de escolas, bombeamento de água, refrigeração em centros de saúde, irrigação, telecomunicações, e mais) e cargas residenciais (iluminação, refrigeração, lazer, etc.) tornando-se uma ferramenta importante para o projeto de sistemas fotovoltaicos autônomos. A comparação dos valores obtidos através de PVSize e outros programas computacionais desenvolvidos por estabelecimentos conceituados na área apresentou uma ótima concordância. Desta forma fica demonstrada a adequação do PVSize para o dimensionamento e simulação de sistemas fotovoltaicos autônomos.
Resumo:
Trata-se de um estudo de caso descritivo-qualitativo sobre o ensino de inglês como língua estrangeira para estudantes de meia-idade. O objetivo é apontar as peculiaridades desses aprendizes com relação ao domínio afetivo (crenças, emoções e atitudes), que devem ser levados em conta pelo professor para um melhor aproveitamento em aula. Os estudantes observados nesta pesquisa são alunos da escola EnglishTech – Tecnologia em Aprendizagem Acelerada, cuja metodologia se diferencia pela utilização de alguns conceitos da Programação Neurolingüística aliados a Estratégias de Aprendizagem de Línguas. Alunos, professores e coordenadora pedagógica da escola foram observados e/ou entrevistados As informações obtidas entre junho de 2002 e novembro de 2004 foram analisadas qualitativamente e revelaram que esses estudantes, entre 45 e 68 anos, não devem ser inseridos em turmas de adultos jovens, nem de terceira idade, pois têm um perfil específico, embora compartilhem características de ambos os grupos. Seus propósitos com as aulas incluem razões práticas (como cinema, computador e viagens), aspectos sociais (convívio com os colegas) e a utilidade do estudo para a mente e a memória. Em comparação com os jovens, os alunos de meia-idade têm menos medo de errar frente aos colegas, são mais perseverantes diante das dificuldades, não se importam de praticar bastante, mas são menos confiantes, apresentam mais crenças negativas e respeito de si mesmos e de sua capacidade de aprendizado, além de experimentarem mais emoções negativas, como inibição, ansiedade e frustração. Um anexo com propostas de atividades didáticas de inglês adequadas para essa faixa etária conclui a tese.
Resumo:
Resumo não disponível.
Resumo:
A resistência aos antibióticos dos patógenos mais comuns do trato respiratório está aumentando mundialmente. Recentemente, Streptococcus pneumoniae resistente à penicilina tem sido isolado em diversos países, e a freqüência dessas cepas tem elevado de modo alarmante. O aumento da resistência, com conseqüentes implicações terapêuticas, tem levado a uma reavaliação do uso dos antibióticos ß-lactâmicos para o tratamento de infecções pneumocócicas. No presente trabalho, um total de 107 amostras de Streptococcus pneumoniae, obtidas de materiais provenientes de pacientes adultos ambulatoriais e hospitalizados, em dois centros médicos de duas cidades do Rio Grande do Sul (Porto Alegre e Caxias do Sul), os quais apresentavam quadro clínico-radiológico de infecção pulmonar, foram analisadas com o objetivo de estudar-se a resistência do germe à penicilina. As amostras constituídas de escarro (80,4%), lavado brônquico (13,5%) e aspirado traqueal (6,6%) foram coletadas no período compreendido entre Julho de 1998 e Julho de 1999. O material foi semeado em meio de Agar sangue e as colônias suspeitas de Streptococcus pneumoniae foram transferidas para meio de Mueller-Hinton para teste de optoquina e de sensibilidade à penicilina com discos de oxacilina. Um halo de inibição da oxacilina menor do que 20 mm indicava a realização de teste para determinação da concentração inibitória mínima (MIC) com E-test. Um total de nove cepas foi identificado como tendo resistência intermediária à penicilina (MIC 0,1-1,0μg/ml) e nenhuma cepa resistente (resistência elevada: MIC > 2,0 μg/ml) foi identificada. Uma monitorização local das cepas quanto à resistência antimicrobiana é de grande importância para os clínicos no manejo de infecções pneumocócicas.
Resumo:
A utilização de reações nucleares ressonantes estreitas em baixas energias é uma ferramenta importante para a determinação de distribuições de elementos leves em filmes finos com resolução em profundidade subnanométrica. O objetivo do trabalho descrito ao longo da presente dissertação é aprimorar os métodos utilizados para a aquisição e interpretação das curvas experimentais. A obtenção das curvas experimentais consiste na detecção dos produtos das reações nucleares em função da energia das partículas incidentes, fazendo necessária variar a energia das partículas do feixe em passos discretos no intervalo desejado. Neste trabalho implementou-se um sistema automático para o controle e incremento da energia do feixe e monitoramento dos produtos das reações nucleares. Esse sistema de varredura automático de energia, além de aumentar consideravelmente a velocidade da medida, aumenta a qualidade das curvas experimentais obtidas. Para a interpretação das curvas de excitação experimentais, foi implementado um programa em linguagem de programação C, baseado na teoria estocástica, que permite simular numericamente as curvas de excitação. Para demonstrar a sua funcionalidade o método desenvolvido foi aplicado para verificar a estabilidade termodinâmica de filmes dielétricos ultrafinos depositados sobre silício, que foram posteriormente nitretados por plasma.
Resumo:
O presente trabalho foi realizado a fim de buscar um melhor nivelamento de estoques em uma indústria multinacional de alimentos, buscando reduzir os seus níveis de atendimento ao cliente. Através dessa reução dos estoques, trabalha-se uma lacuna de extrema importância para indústrias desse segmento, pois existe uma grande complexidade para o gerenciamento desses estoques, por se tratar em muitas vezes de produtos perecíveis, com baixo prazo de validade, e muitas vezes tendo que ser armazenados em ambiente refrigerado. O trabalho propõe uma sistemática de apoio ao planejamento e à gestão de estoques em indústrias de alimentos, a qual considera a previsão de vendas e os níveis de estoque minímo para planejamento, e o kanban para a programação das entregas. A sistemática proposta foi parcialmente aplicada numa indústria multinacional de alimentos, conseguindo-se reduzir seus níveis de estoque e melhorar seus indicadores de níveis de atendimento aos clientes.
Resumo:
Atualmente, a consciência de que os recursos naturais são esgotáveis e que a geração de poluentes deve ser evitada para impedir um sério problema ambiental, são aspectos que já estão sendo considerados na indústria química. Isto se reflete em uma das principais preocupações enfrentadas por este setor: a minimização de efluentes. O presente trabalho tem por objetivo desenvolver um problema padrão na área de integração mássica para recuperação de água de processos, sugerindo uma metodologia que ajude a solucionar esta grande preocupação. O problema padrão proposto é suficientemente simples para sua rápida compreensão, e complexo o suficiente para representar uma típica situação industrial. Na metodologia empregada, técnicas de integração mássica como: reuso, reciclo e regeneração são utilizadas, alternativamente ao tratamento de final de tubulação, a fim de reduzir a demanda de água consumida e minimizar a quantidade de efluente líquido tratado e descartado. A síntese da rede de integração mássica foi feita através da construção de uma superestrutura, contendo todas as possíveis configurações em potencial para o sistema proposto. A solução do problema foi obtida via programação não linear mista inteira (MINLP). Um estudo comparativo entre as diversas configurações obtidas foi realizado. Uma análise da operabilidade das principais configurações da rede de integração mássica foi feita para garantir que a rede sintetizada seja operável.
Resumo:
Esta pesquisa aborda a interface entre vendas e produção em operações fabris, procurando compreender melhor suas características sistêmicas e de transformação da informação estratégica, de atendimento a mercado, na informação operacional, de programação da fábrica. O uso de metodologia de enfoque sistêmico, em conjunto com revisão de literatura pertinente e levantamento de campo em seis empresas manufatureiras de (mix) alto de produtos operando em mercados diferentes permitiu a identificação de uma possibilidade de melhoria do processo de planejamento e programação comparado a como é descrito na bibliografia e como era operado nas empresas pesquisadas, com a adoção de variabilidade como parâmetro de entendimento e segregação entre produtos cujos perfis de demandas apresentam comportamentos diversos, mas que eventualmente podem estar debaixo de políticas e procedimentos únicos.
Resumo:
Resumo não disponível.
Resumo:
Este trabalho relata as atividades de estudo, projeto e implementação de uma aplicação distribuída que explora mecanismos básicos empregados em comunicação de grupo. O estudo é focado no desenvolvimento e uso dos conceitos de sincronismo virtual e em resultados aplicáveis para tolerância a falhas. O objetivo deste trabalho é o de demonstrar as repercussões práticas das principais características do modelo de sincronismo virtual no suporte à tolerância a falhas. São preceitos básicos os conceitos e primitivas de sistemas distribuídos utilizando troca de mensagens, bem como as alternativas de programação embasadas no conceito de grupos. O resultado final corresponde a um sistema Cliente/Servidor, desenvolvido em Java RMI, para simular um sistema distribuído com visões de grupo atualizadas em função da ocorrência de eventos significativos na composição dos grupos (sincronismo virtual). O sistema apresenta tratamento a falhas para o colapso (crash) de processos, inclusive do servidor (coordenador do grupo), e permite a consulta a dados armazenados em diferentes servidores. Foi projetado e implementado em um ambiente Windows NT, com protocolo TCP/IP. O resultado final corresponde a um conjunto de classes que pode ser utilizado para o controle da composição de grupos (membership). O aplicativo desenvolvido neste trabalho disponibiliza seis serviços, que são: inclusão de novos membros no grupo, onde as visões de todos os membros são atualizadas já com a identificação do novo membro; envio de mensagens em multicast aos membros participantes do grupo; envio de mensagens em unicast para um membro específico do grupo; permite a saída voluntária de membros do grupo, fazendo a atualização da visão a todos os membros do grupo; monitoramento de defeitos; e visualização dos membros participantes do grupo. Um destaque deve ser dado ao tratamento da suspeita de defeito do coordenador do grupo: se o mesmo sofrer um colapso, o membro mais antigo ativo é designado como o novo coordenador, e todos os membros do grupo são atualizados sobre a situação atual quanto à coordenação do grupo.
Resumo:
Este trabalho trata dos problemas de otimização de minimização de volume com restrição de flexibilidade e freqüência natural e minimização de flexibilidade com restrição de volume. Os problemas são resolvidos para estruturas bidimensionais e tridimensionais. As equações diferenciais de equilíbrio são solucionadas de forma aproximada através do método dos elementos finitos, em um subespaço de dimensão finita. O método utilizado no estudo é o da otimização topológica, o qual consiste em encontrar dentro de um domínio pré-existente uma distribuição ideal de material. São avaliadas técnicas como programação linear e critério de ótimo. Em ambos os casos são utilizadas sensibilidades calculadas analiticamente. Para a otimização com restrição modal, problemas característicos como autovalores repetidos e normalização do autovetor são tratados. Ferramentas usadas na otimização topológica, como método da continuação, penalização e filtragem são discutidos. São abordados também problemas e características inerentes ao processo de otimização topológica, tais como instabilidades de tabuleiros, dependência de malha e sensibilidade da topologia a diferentes condições de contorno. Os resultados obtidos permitem avaliações referentes à otimização topológica (geometrias, ou seja, topologias resultantes) sob diferentes condições, utilizando-se as ferramentas discutidas nesse trabalho.
Resumo:
Este trabalho apresenta um mapeamento centrado nas construções não usuais da linguagem Nautilus, para a linguagem convencional, no caso Java, mantendo propriedades com atomicidade que são requisitos da semântica formal da linguagem. Nautilus é originalmente uma linguagem de especificação baseada em objetos, textual que suporta objetos concorrentes e não deterministas. Desde então a linguagem foi modificada aom extensões como classes e uma notação diagramática, além de se investigar seu uso como linguagem de programação. Suas construções incomuns (reificação, agregação, etc.) são baseados em seu domínio semântico: Automâtos Não Sequenciais. Este domíno satisfaz composição diagonal, i.e refinamentos se compõem (verticalmente) refletindo uma descrição gradual de sistemas, envolvendo múltiplos níveis de abstração, e distribui-se através de combinadores (horizontalmente), o que significa que o refinamento de um sistema composto é a combinação de do refinamento de suas partes.O trabalho inclui um mapeamento inicial de um subconjunto da linguagem(objeto base, reificação, agregação e visão), uma versão ampliada para abranger mais construções( interação e classes), e uma versão refinada mais concorrente e sugestões de modificação na linguagem.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
O objetivo desta dissertação é analisar o uso de regras ótimas irrestritas e de regras simples restritas de política monetária para a economia brasileira, com especial atenção ao impacto da taxa de câmbio na transmissão da política monetária. As regras foram encontradas através de um processo de programação dinâmica e comparadas em termos da eficiência econômica de cada uma, medida pela redução da variância do produto e da inflação. Estes resultados serviram de referência para avaliar o desempenho do regime de metas de inflação no Brasil, desde a sua implementação em julho de 1999.
Resumo:
Os objetivos da presente tese de doutorado foram os de buscar novos antipsicóticos atípicos de baixo preço comercial e também procurar entender o mecanismo de ação que leva a um perfil antipsicótico atípico. Os resultados da tese são divididos em duas partes, de acordo com sua natureza, em experimentais (primeira parte) e teóricos (segunda parte). Para o desenvolvimento da primeira parte, foi necessária primeiramente a programação de um software para medir locomoção em roedores após filmagem com webcam. A seguir, foram investigados os efeitos da guanosina, flunarizina e cinarizina em modelos animais de psicose, bem como em outros paradigmas comportamentais. A guanosina foi escolhida para estudo uma vez que tem se mostrado que ela interage com o sistema glutamatérgico – que sabidamente está envolvido na fisiopatologia da esquizofrenia – promovendo a captação astrocitária de glutamato. Já a flunarizina e a cinarizina, dois bloqueadores de canal de cálcio empregados para tratar enxaqueca e vertigem foram escolhidas pelo fato delas produzirem sinais e sintomas extrapiramidais em pacientes idosos, o que posteriormente foi relacionado às suas propriedades como antagonistas moderados dos receptores dopaminérgicos do tipo D2 A guanosina diminuiu o aumento de locomoção induzido por um antagonista NMDA (MK-801), enquanto que não apresentou efeito sobre o aumento de locomoção induzido por anfetamina, de forma que sua utilidade como potencial antipsicótico deve ser ainda melhor estudada. Tanto a flunarizina quanto a cinarizina foram capazes de diminuir o aumento de locomoção induzido por MK-801 e por anfetamina em doses que não causam efeitos catalépticos importantes. Portanto, foi concluído que estes dois compostos apresentam um potencial perfil de antipsicótico atípico, com as vantagens de já estarem disponíveis para uso comercial, boa tolerabilidade e baixo custo quando comparados com os antipsicóticos atípicos disponíveis comercial. A segunda parte da tese apresenta alguns resultados teóricos matemáticos que podem ser derivados da teoria da lei de ação das massas aplicada ao binding de receptores, utilizando também resultados experimentais já conhecidos de PET Estes resultados apresentam insights ao entendimento das diferenças entre os perfis antipsicóticos atípicos e típicos em relação à geração de sinais extrapiramidais. É discutido que fatores culturais e comerciais relacionados à posologia atual empregada no tratamento com antipsicóticos típicos podem ser os responsáveis pelas diferenças de perfis, uma vez que alguns deles são prescritos em doses proporcionalmente maiores em relação à sua afinidade, atingindo assim maiores níveis de bloqueio dopaminérgico no estriado. Uma curta meia-vida plasmática também é apontada como um possível parâmetro importante na geração de um perfil atípico. É mostrado ainda alguns erros de concepção relacionados ao curso temporal da ocupação dopaminérgica que tem sido atualmente cometidos na literatura científica, como o conceito de meia-vida de ocupação de receptores. Como um último resultado teórico, é proposto um algoritmo para a redução de dose em pacientes tratados com antipsicóticos apresentando sinais e sintomas extrapiramidais.