259 resultados para Adaptação aberta. Autoadaptação. Componentes. OSGi
Resumo:
Objetivou-se, com este trabalho, avaliar o efeito da temperatura do ar de secagem sobre a qualidade do óleo essencial de folhas de tomilho. Foram empregadas diferentes temperaturas de secagem (30, 40, 50, 60, 70 ºC), em um secador com resistências elétricas. Os componentes químicos do óleo essencial, depois de realizada a secagem, foram comparados com os valores obtidos na planta in natura (testemunha). Para a extração do óleo essencial, foi empregado o método de extração com CO2 supercrítico. A identificação dos componentes químicos do óleo essencial foi realizada por cromatografia gasosa, acoplada ao espectrofotômetro de massas (CG-EM) e, para a quantificação desses componentes, empregou-se o cromatógrafo a gás, acoplado ao detector por ionização de chamas (CG-DIC). Em função dos resultados obtidos, recomenda-se ar, à temperatura de 60 ºC, para a secagem das folhas de tomilho.
Resumo:
O nitrogênio é o nutriente exigido em maior quantidade pela soja. Sua limitação pode comprometer a produtividade final da cultura. O objetivo deste trabalho foi avaliar o efeito do nitrogênio suplementar nos componentes de rendimento da soja, com o uso de diferentes fontes, doses e épocas de aplicação. O ensaio foi realizado em área de lavoura, em Arroio Grande, RS. Os estádios reprodutivos em que se aplicou nitrogênio foram: R1, R3, R5.1, R5.2, R5.3, R5.4, R5.5, R6, e R7, com as fontes nitrato de amônio e amídica, nas doses de 0, 30, 60, 90 e 120 kg ha-1. Analisaram-se o número de vagens, o de grãos por vagem e a massa de mil grãos, dos terços inferior, médio, superior e o total na planta, bem como a produtividade. O delineamento experimental foi o de blocos ao acaso, com três repetições. Os dados foram submetidos à análise de variância e posterior análise de regressão. As variáveis que não apresentaram interação com doses foram analisadas separadamente, pelo teste de médias, utilizando-se Tukey, a 5 % de probabilidade. A aplicação de nitrogênio na fase reprodutiva da soja influenciou positivamente alguns componentes de rendimento. No entanto, não houve aumento de produtividade, possivelmente, por causa do estresse hídrico, no qual a cultura encontrava-se.
Resumo:
Em programas de melhoramento genético, informações sobre a correlação entre caracteres são de grande importância para se aperfeiçoar a seleção simultânea de caracteres. Contudo, a quantificação e a interpretação da magnitude de uma correlação podem resultar em equívocos na estratégia de seleção. O objetivo deste trabalho foi avaliar, por meio da análise de trilha, as relações, direta e indireta, entre os componentes primários de produção e a produtividade de espiga de milho superdoce, e identificar os caracteres que mais contribuem para a produtividade de espiga (variável básica). Verifica-se que as variáveis utilizadas explicaram 94,77% da variação do peso de espiga (R²). Pela análise de trilha, apenas dois caracteres, o volume do grão (0, 2637) e o volume de espiga (0, 2536), apresentaram efeito direto na produção. Constata-se, portanto, que, apesar de a maioria dos caracteres apresentarem altas estimativas de correlação, essas ocorreram por efeitos indiretos de outros caracteres. Assim, tanto para seleção direta, quanto para seleção indireta, essas características são eficientes no aumento do peso médio da espiga de milho superdoce. Neste caso, a melhor estratégia seria a seleção simultânea de caracteres, enfatizando-se as características cujos efeitos indiretos são maiores. É oportuno salientar que o volume de grão e volume de espiga apresentaram maiores herdabilidades, quando comparados com peso de espigas, ou seja, 91,92, 88,6 e 80,52%, respectivamente. A alta herdabilidade estimada (91,92 e 88,6%) é um indicativo de possibilidades de elevados ganhos genéticos na seleção.
Resumo:
A partir da motivação de contribuir para a investigação dos custos em saúde, o objetivo deste trabalho é analisar a evolução dos custos de assistência médica dos planos de saúde no Brasil, considerando a distinção marcante entre as categorias de contratação. Para esse fim, utilizaram-se as informações divulgadas pela Agência Nacional de Saúde Suplementar (ANS), sendo estimados índices de variação com base na metodologia de índices de valor e seus dois componentes, preço (custo médio por evento) e quantidade (frequência de utilização). Dentre os resultados encontrados, destaca-se que os índices de custo médio por evento apresentaram variação mais intensa do que os índices de quantidade, fato que aponta no sentido da importância do aprofundamento da pesquisa sobre a inflação em saúde.
Resumo:
O trabalho busca adequar a Escala de Conveniência de Serviços - Servcon (SEIDERS, VOSS, GODFREY, 2007) para uso no contexto brasileiro, mais especificamente no varejo de livre localização das cidades de porte médio. Assume, a priori, que as cinco dimensões utilizadas na escala original não são suficientes para representar a conveniência de serviços na realidade brasileira, por ignorar importantes fatores de (in)conveniência, como aqueles decorrentes da insegurança, da informalidade e da desorganização urbana. Após a etapa exploratória, feita por meio de grupo focal, foram colhidas duas amostras de respondentes, uma formada por 268 universitários e outra por 206 consumidores não acadêmicos. O trabalho acrescenta duas novas dimensões à Servcon original, cuja versão ampliada apresenta índices razoáveis de ajustamento geral, de confiabilidade e de variância extraída em todos os construtos. Os resultados evidenciam que fatores relacionados à segurança, à mobilidade e ao regramento da informalidade precisam ser incorporados ao estudo da conveniência, para adequá-la ao contexto brasileiro.
Resumo:
As estratégias que as empresas têm adotado para promover inovações tecnológicas de produtos e serviços vêm mudando significativamente nos últimos anos. Um dos elementos de notável evolução diz respeito à maneira como as empresas conduzem a etapa de pesquisa e desenvolvimento (P&D) de novos produtos, serviços, processos e modelos de negócios. Diante dessa problemática, o presente artigo busca identificar práticas de inovação colaborativa no desenvolvimento de novos produtos. Para melhor compreender a mudança nos processos de inovação, elegeu-se como campo empírico um caso da indústria automotiva. Mesmo que essa indústria tenha experimentado o desenvolvimento de P&D em conjunto com os seus fornecedores, a cocriação de valor com os usuários finais é algo muito novo. O objeto de análise foi o projeto de desenvolvimento do Fiat Mio - Fiat Concept Car III (FCCIII) e os resultados demonstraram que, durante o processo de desenvolvimento do FCCIII, foram adotadas diferentes práticas de inovação colaborativa, o que possibilitou o acesso de diferentes conhecimentos externos à organização.
Resumo:
O aprofundamento do uso da ciência em produtos e processos e a distribuição da produção de conhecimento colocaram em xeque a organização chandleriana, favorecendo modelos organizacionais em redes de colaboração. Reconhece-se que as TICs converteram-se em poderosas alavancas para as organizações e estruturas virtuais. Recentemente, ganhou destaque na literatura voltada aos gestores de grandes empresas com tradição em P&D o modelo de inovação aberta (OI). Também nas estratégias de OI a virtualidade engendrada pelas TICs tem desempenhado um papel determinante, transformando-se em elemento-chave do próprio processo de inovação. Mas a análise do uso da OI - e do papel da virtualidade neste modelo - é praticamente inexistente no caso das firmas brasileiras. Este artigo estende o estudo do uso de TICs em arranjos colaborativos. Seu objetivo é articular as bases conceituais para estudo do papel da virtualidade nas estratégias de inovação aberta pertinentes aos diferentes tipos de redes estratégicas virtuais em que a firma brasileira está inserida. Como resultado principal, o artigo oferece uma proposta de articulação conceitual e descreve seus argumentos centrais.
Resumo:
Este estudo objetivou analisar o Plano de Ação brasileiro para o Governo Aberto, baseado na teoria da inovação aberta na gestão pública. Utilizou-se de uma pesquisa documental, com vistas a aprofundar o conhecimento do fenômeno em questão. O documento foi escolhido intencionalmente, por ser exemplo basilar das políticas públicas relacionadas à inovação aberta brasileira. Os resultados mostram que os compromissos firmados pelo governo brasileiro estão consoantes com o processo de inovação aberta pública. As ações previstas no Plano estão especificamente relacionadas a transparência, abertura de dados e preparação do corpo estatal para o processo aberto de inovação.
Resumo:
O teste tuberculínico, segundo a técnica de Mantoux, pretende classificar as pessoas de acordo com o tamanho da reação provocada por uma única e especificada dose de tuberculina. Dados empíricos mostram que as medidas de tais reações, obtidas em populações genéricas, representam a mistura de distintos grupos componentes. Com a finalidade de separar tais grupos, objetivando a solução posterior do problema de classificação, foi utilizado um método gráfico de decomposição de uma distribuição de freqüências em componentes normais para decompor distribuições de freqüências de medidas de induração e eritema. A decomposição obtida permite verificar que o número de componentes que descreve a distribuição da variável induração não é o mesmo que para a variável eritema, para os dados considerados.
Resumo:
O problema de classificar pessoas de acordo com o tamanho da induração, na prova tuberculínica segundo a técnica de Mantoux, é resolvido, para um conjunto de dados obtidos em uma população genérica, utilizando-se o critério estatístico de "melhores regiões possíveis de classificação". São obtidas estimativas das probabilidades de classificação errada.
Resumo:
Nas áreas onde se considera que os triatomíneos não se adaptaram aos domicílios, tem sido encontradas colônias, desses insetos, em casas habitadas por mamíferos silvestres ou sinantrópicos. As determinações de sangue feitas em triatomíneos, coletados nos domicílios ou seus anexos, apresentam concordância com os dados obtidos em exemplares capturados em biótopos naturais, desde que esses dados sejam reunidos em dois grupos: mamíferos e aves. Essas informações relativas às preferências alimentares das espécies de triatomíneos mais bem estudadas e a constatação de pré-adaptação à mudança de condições de ambiente ou de fonte de alimento, em vários grupos de seres vivos, conduziram às seguintes conclusões: 1 - Havendo condições para abrigo dos insetos, o desenvolvimento de colônias de triatomíneos, nos domicílios, independe de suas características. 2 - O elemento fundamental para a colonização de um biótopo artificial, por triatomíneos, é o vertebrado que habita esse biótopo. 3 - O fato de umas espécies ocorrerem em domicílios e outras em abrigos de aves, é decorrência de pré-adaptação. Na natureza a espécie é polífaga e tem preferência pela classe de vertebrado que habita o biótopo. 4 - A conclusão anterior permite alguma previsão sobre o que poderia ocorrer em regiões de colonização recente, como a Amazônica.
Resumo:
A Lutzomyia intermedia há muito vem sendo encontrada em áreas de colonização antiga. Analisando dados de capturas deste flebotomíneo, com diferentes iscas e em diferentes locais, acredita-se que esta espécie está pré-adaptada a ambientes abertos e a se alimentar em mamíferos, entre eles o homem.
Resumo:
Com o objetivo de tabular informações de mortalidade no Estado do Rio de Janeiro (Brasil), segundo município, e construir indicadores regionais (municipais), foi estudada a questão metodológica da estimativa dos denominadores; ou seja, de procedimentos para estimar populações de subáreas geográficas em anos posteriores ao censo de 1980. No Brasil, as estimativas oficiais de populações de subdivisões geográficas são feitas pela Fundação Instituto Brasileiro de Geografia e Estatística pelo método localmente conhecido como "método AiBi". Analisa-se este procedimento e propõe-se um modelo matemático alternativo que satisfaz a condição de fechamento, isto é, a soma das alternativas para as áreas menores é igual a estimativa da população total. Uma aplicação do modelo foi feita para projetar as populações dos municípios do Estado do Rio de Janeiro, de 1981 a 1990.
Peróxido de hidrogênio como agente despirogenizante de componentes para produtos médico-hospitalares
Resumo:
A atual busca de solventes alternativos aos fluorados, frente ao problema de depleção de ozônio da estratosfera, obriga a desenvolvimentos de processos aplicáveis à fabricação de produtos médico-hospitalares. Frente ao desafio, e considerando a água estar sendo opção de escolha de outros segmentos industriais, preocupa a rápida proliferação microbiana na mesma, tornando-a fonte potencial de endotoxinas. Tal risco incompatibiliza-se por exemplo, com a produção de itens destinados ao emprego em procedimentos cirúrgicos da área cardiovascular. Desta forma foi ralizada pesquisa com o objetivo de investigar possibilidade de emprego da água como agente de limpeza de componentes para tais produtos, desde que incorporada de peróxido de hidrogênio. Trabalhou-se inoculando água e soluções de peróxido com níveis de 0,1, 0,25, 0,5 e 1,0 UE/ml; obteve-se a confirmação de efetividade de ação a concentração de 5% de peróxido de hidrogênio, através de determinação analítica pelo método "in vitro". Investigou-se, em peças injetadas em policarbonato, destinadas a fabricação de oxigenadores e reservatórios sangüíneos, inoculadas com endotoxina, a efetividade no uso do peróxido. Os resultados permitem concluir pela possibilidade de sucesso do processo proposto, seja pelo aspecto biológico ou pela remoção de sujidades.
Resumo:
OBJETIVO: Existem vários critérios para a escolha do número de componentes a serem mantidos na análise de componentes principais. Esta escolha pode dar-se por critérios arbitrários (critério de Kaiser p.ex.) ou subjetivos (fatores interpretáveis). Apresenta-se o critério de simulação de Lébart e Dreyfus. MÉTODO: É gerada uma matriz de números aleatórios, sendo realizada a análise de componentes principais a partir dessa matriz. Os componentes extraídos de um conjunto de dados como este representam um limite inferior que deve ser ultrapassado para que um componente possa ser selecionado. Utiliza-se como exemplo a análise de componentes principais da escala de Hamilton para a depressão (17 itens) numa amostra de 130 pacientes. RESULTADOS E CONCLUSÕES: O método de simulação é comparado com o método de Kaiser. É mostrado que o método de simulação mantém apenas os componentes clinicamente significativos ao contrário do método de Kaiser.