965 resultados para Algoritmo Boosting


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The search for alternatives to fossil fuels is boosting interest in biodiesel production. Among the crops used to produce biodiesel, palm trees stand out due to their high productivity and positive energy balance. This work assesses life cycle emissions and the energy balance of biodiesel production from palm oil in Brazil. The results are compared through a meta-analysis to previous published studies: Wood and Corley (1991) [Wood BJ, Corley RH. The energy balance of oil palm cultivation. In: PORIM intl. palm oil conference agriculture; 1991.], Malaysia; Yusoff and Hansen (2005) [Yusoff S. Hansen SB. Feasibility study of performing an life cycle assessment on crude palm oil production in Malaysia. International Journal of Life Cycle Assessment 2007;12:50-8], Malaysia; Angarita et al. (2009) [Angarita EE, Lora EE, Costa RE, Torres EA. The energy balance in the palm oil-derived methyl ester (PME) life cycle for the cases in Brazil and Colombia. Renewable Energy 2009;34:2905-13], Colombia; Pleanjai and Gheewala (2009) [Pleanjai S. Gheewala SH. Full chain energy analysis of biodiesel production from palm oil in Thailand. Applied Energy 2009;86:S209-14], Thailand; and Yee et al. (2009) [Yee KF, Tan KT, Abdullah AZ, Lee la. Life cycle assessment of palm biodiesel: revealing facts and benefits for sustainability. Applied Energy 2009;86:S189-96], Malaysia. In our study, data for the agricultural phase, transport, and energy content of the products and co-products were obtained from previous assessments done in Brazil. The energy intensities and greenhouse gas emission factors were obtained from the Simapro 7.1.8. software and other authors. These factors were applied to the inputs and outputs listed in the selected studies to render them comparable. The energy balance for our study was 1:5.37. In comparison the range for the other studies is between 1:3.40 and 1:7.78. Life cycle emissions determined in our assessment resulted in 1437 kg CO(2)e/ha, while our analysis based on the information provided by other authors resulted in 2406 kg CO(2)e/ha, on average. The Angarita et al. (2009) [Angarita EE, Lora EE, Costa RE, Torres EA. The energy balance in the palm oil-derived methyl ester (PME) life cycle for the cases in Brazil and Colombia. Renewable Energy 2009:34:2905-13] study does not report emissions. When compared to diesel on a energy basis, avoided emissions due to the use of biodiesel account for 80 g CO(2)e/MJ. Thus, avoided life Cycle emissions associated with the use of biodiesel yield a net reduction of greenhouse gas emissions. We also assessed the carbon balance between a palm tree plantation, including displaced emissions from diesel, and a natural ecosystem. Considering the carbon balance outcome plus life cycle emissions the payback time for a tropical forest is 39 years. The result published by Gibbs et al. (2008) [Gibbs HK, Johnston M, Foley JA, Holloway T, Monfreda C, Ramankutty N, et al., Carbon payback times for crop-based biofuel expansion in the tropics: the effects of changing yield and technology. Environmental Research Letters 2008;3:10], which ignores life cycle emissions, determined a payback range for biodiesel production between 30 and 120 years. Crown Copyright (C) 2010 Published by Elsevier Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The principle of using induction rules based on spatial environmental data to model a soil map has previously been demonstrated Whilst the general pattern of classes of large spatial extent and those with close association with geology were delineated small classes and the detailed spatial pattern of the map were less well rendered Here we examine several strategies to improve the quality of the soil map models generated by rule induction Terrain attributes that are better suited to landscape description at a resolution of 250 m are introduced as predictors of soil type A map sampling strategy is developed Classification error is reduced by using boosting rather than cross validation to improve the model Further the benefit of incorporating the local spatial context for each environmental variable into the rule induction is examined The best model was achieved by sampling in proportion to the spatial extent of the mapped classes boosting the decision trees and using spatial contextual information extracted from the environmental variables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objective: To develop a model to predict the bleeding source and identify the cohort amongst patients with acute gastrointestinal bleeding (GIB) who require urgent intervention, including endoscopy. Patients with acute GIB, an unpredictable event, are most commonly evaluated and managed by non-gastroenterologists. Rapid and consistently reliable risk stratification of patients with acute GIB for urgent endoscopy may potentially improve outcomes amongst such patients by targeting scarce health-care resources to those who need it the most. Design and methods: Using ICD-9 codes for acute GIB, 189 patients with acute GIB and all. available data variables required to develop and test models were identified from a hospital medical records database. Data on 122 patients was utilized for development of the model and on 67 patients utilized to perform comparative analysis of the models. Clinical data such as presenting signs and symptoms, demographic data, presence of co-morbidities, laboratory data and corresponding endoscopic diagnosis and outcomes were collected. Clinical data and endoscopic diagnosis collected for each patient was utilized to retrospectively ascertain optimal management for each patient. Clinical presentations and corresponding treatment was utilized as training examples. Eight mathematical models including artificial neural network (ANN), support vector machine (SVM), k-nearest neighbor, linear discriminant analysis (LDA), shrunken centroid (SC), random forest (RF), logistic regression, and boosting were trained and tested. The performance of these models was compared using standard statistical analysis and ROC curves. Results: Overall the random forest model best predicted the source, need for resuscitation, and disposition with accuracies of approximately 80% or higher (accuracy for endoscopy was greater than 75%). The area under ROC curve for RF was greater than 0.85, indicating excellent performance by the random forest model Conclusion: While most mathematical models are effective as a decision support system for evaluation and management of patients with acute GIB, in our testing, the RF model consistently demonstrated the best performance. Amongst patients presenting with acute GIB, mathematical models may facilitate the identification of the source of GIB, need for intervention and allow optimization of care and healthcare resource allocation; these however require further validation. (c) 2007 Elsevier B.V. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SETTING: Five medical schools in three cities in Rio de Janeiro State, Brazil, with different tuberculosis (TB) incidence rates. OBJECTIVE: To evaluate the prevalence of the booster phenomenon and its associated factors in a voting universally BCG-vaccinated TB-exposed population. DESIGN: A two-step tuberculin skin test (TST) was performed among undergraduate medical students. Boosting was defined as an induration >= 10 mm in the second TST (TST2), with an increase of at least 6 mm over the first TST (TST1). The association of boosting with independent variables was evaluated using multivariate analysis. RESULTS: Of the 764 participants (mean age 21.9 +/- 2.7 years), 672 (87.9%) had a BCG scar. The overall booster SUMMARY phenomenon prevalence was 8.4% (95%CI 6.5-10.6). Boosting was associated with TST1 reactions of 1-9 mm (aOR 2.5, 95%CI 1.04-5.9) and with BCG vaccination, mostly after infancy, i.e., after age two years (aOR 9.1, 95%,CI 1.2-70.7). CONCLUSION: The prevalence of the booster phenomenon was high. A two-step TST in young BCG-vaccinated populations, especially in those with TST1 reactions of 1-9 mm, can avoid misdiagnosis as a false conversion and potentially reduce unnecessary treatment for latent TB infection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The prefrontal cortex is continuously required for working memory processing during wakefulness, but is particularly hypoactivated during sleep and in psychiatric disorders such as schizophrenia. Ammon`s horn CA1 hippocampus subfield (CA1) afferents provide a functional modulatory path that is subjected to synaptic plasticity and a prominent monoaminergic influence. However, little is known about the muscarinic cholinergic effects on prefrontal synapses. Here, we investigated the effects of the muscarinic agonist, pilocarpine (PILO), on the induction and maintenance of CA1-medial prefrontal cortex (mPFC) long-term potentiation (LTP) as well as on brain monoamine levels. Field evoked responses were recorded in urethane-anesthetized rats during baseline (50 min) and after LTP (130 min), and compared with controls. LTP was induced 20 min after PILO administration (15 mg/kg, i.p.) or vehicle (NaCl 0.15 M, i.p.). In a separate group of animals, the hippocampus and mPFC were microdissected 20 min after PILO injection and used to quantify monoamine levels. Our results show that PILO potentiates the late-phase of mPFC UP without affecting either post-tetanic potentiation or early LTP (20 min). This effect was correlated with a significant decrease in relative delta (1-4 Hz) power and an increase in sigma (10-15 Hz) and gamma (2540 Hz) powers in CA1. Monoamine levels were specifically altered in the mPFC. We observed a decrease in dopamine, 5-HT, 5-hydroxyindolacetic acid and noradrenaline levels, with no changes in 3,4-hydroxyphenylacetic acid levels. Our data, therefore, suggest that muscarinic activation exerts a boosting effect on mPFC synaptic plasticity and possibly on mPFC-dependent memories, associated to monoaminergic changes. (C) 2008 IBRO. Published by Elsevier Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vaccines to efficiently block or limit sexual transmission of both HIV and human papilloma virus (HPV) are urgently needed. Chimeric virus-like-particle (VLP) vaccines consisting of both multimerized HPV L1 proteins and fragments of SIV gag p27, HIV-1 tat, and HIV-1 rev proteins (HPV-SHIV VLPs) were constructed and administered to macaques both systemically and mucosally. An additional group of macaques first received a priming vaccination with DNA vaccines expressing the same SIV and HIV-1 antigens prior to chimeric HPV-SHIV VLP boosting vaccinations. Although HPV L1 antibodies were induced in all immunized macaques, weak antibody or T cell responses to the chimeric SHIV antigens were detected only in animals receiving the DNA prime/HPV-SHIV VLP boost vaccine regimen. Significant but partial protection from a virulent mucosal SHIV challenge was also detected only in the prime/boosted macaques and not in animals receiving the HPV-SHIV VLP vaccines alone, with three of five prime/boosted animals retaining some CD4+ T cells following challenge. Thus, although some immunogenicity and partial protection was observed in non-human primates receiving both DNA and chimeric HPV-SHIV VLP vaccines, significant improvements in vaccine design are required before we can confidently proceed with this approach to clinical trials. (C) 2002 Elsevier Science (USA).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa de mestrado teve como principal objetivo investigar estratégias de cálculo mental, utilizadas por alunos de uma 5ª série/6º ano do ensino fundamental ao resolver cálculos de adição e subtração. Para atingir este objetivo procuramos responder aos questionamentos: Quais estratégias de cálculo mental, alunos da 5ª série/6º ano empregam na resolução de cálculos de adição e subtração? Que relações existem entre o tipo de cálculo envolvido e a estratégia adotada para resolvê-lo? Para respondermos a essas questões, seguimos uma metodologia de natureza qualitativa, configurada como estudo de caso do tipo etnográfico. O trabalho de campo foi desenvolvido em uma turma de 5ª série/6º ano do ensino fundamental de uma escola pública da rede estadual de ensino do município de Serra. A pesquisa aconteceu de maio a dezembro de 2013. Oito alunos resolveram uma atividade diagnóstica composta de quatro sequências de cálculos mentais, a saber, fatos fundamentais do número 5, do número 10, do número 20 e do número 100, dentre adições e subtrações próximas a esses resultados. Todos alunos participaram da etapa de entrevistas. Dos oito alunos, foram escolhidos dados de três que participaram de outras etapas da pesquisa. Os registros realizados pelos alunos na etapa de observação da turma, na etapa diagnóstica e na etapa de intervenção didática, as anotações no caderno de campo e algumas gravações em áudio serviram como fontes de coleta de dados. Utilizamos as estratégias identificadas por Beishuizen (1997), Klein e Beishuizen (1998), Thompson (1999, 2000) e Lucangeli et al. (2003), como categorias de análise. Através da análise de dados, constatamos que as escolhas das estratégias de cálculo mental pelos alunos variaram de acordo com o tipo de sequência de cálculos, a operação aritmética (adição ou subtração) e o estado emocional deles durante a atividade. Foi possível identificar o uso de duas estratégias combinadas, o algoritmo mental e estratégias de contagens nos dedos para grande parte dos cálculos. O uso do algoritmo mental mostrou-se um procedimento de grande sobrecarga mental e, em alguns cálculos de adição sem reserva, serviu apenas como apoio à visualização numérica, sendo executado pelo aluno da esquerda para a direita, semelhantemente à estratégia de decomposição numérica. Os dados deste estudo apontam para: (i) a necessidade de se trabalhar fatos numéricos fundamentais de adição e subtração via cálculo mental de maneira sistemática em sala de aula; (ii) a necessidade de se ensinar estratégias autênticas de cálculo mental para que os alunos não se tornem dependentes de estratégias como contagens e algoritmo mental, que são mais difíceis de serem executadas com êxito; (iii) a importância de entrevistar, individualmente, os alunos a fim de compreender e avaliar o desenvolvimento destes em tarefas de cálculo mental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um algoritmo numérico foi criado para apresentar a solução da conversão termoquímica de um combustível sólido. O mesmo foi criado de forma a ser flexível e dependente do mecanismo de reação a ser representado. Para tanto, um sistema das equações características desse tipo de problema foi resolvido através de um método iterativo unido a matemática simbólica. Em função de não linearidades nas equações e por se tratar de pequenas partículas, será aplicado o método de Newton para reduzir o sistema de equações diferenciais parciais (EDP’s) para um sistema de equações diferenciais ordinárias (EDO’s). Tal processo redução é baseado na união desse método iterativo à diferenciação numérica, pois consegue incorporar nas EDO’s resultantes funções analíticas. O modelo reduzido será solucionado numericamente usando-se a técnica do gradiente bi-conjugado (BCG). Tal modelo promete ter taxa de convergência alta, se utilizando de um número baixo de iterações, além de apresentar alta velocidade na apresentação das soluções do novo sistema linear gerado. Além disso, o algoritmo se mostra independente do tamanho da malha constituidora. Para a validação, a massa normalizada será calculada e comparada com valores experimentais de termogravimetria encontrados na literatura, , e um teste com um mecanismo simplificado de reação será realizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos de escoamento multifásico são amplamente usados em diversas áreas de pesquisa ambiental, como leitos fluidizados, dispersão de gás em líquidos e vários outros processos que englobam mais de uma propriedade físico-química do meio. Dessa forma, um modelo multifásico foi desenvolvido e adaptado para o estudo do transporte de sedimentos de fundo devido à ação de ondas de gravidade. Neste trabalho, foi elaborado o acoplamento multifásico de um modelo euleriano não-linear de ondas do tipo Boussinesq, baseado na formulação numérica encontrada em Wei et al. (1995), com um modelo lagrangiano de partículas, fundamentado pelo princípio Newtoniano do movimento com o esquema de colisões do tipo esferas rígidas. O modelo de ondas foi testado quanto à sua fonte geradora, representada por uma função gaussiana, pá-pistão e pá-batedor, e quanto à sua interação com a profundidade, através da não-linearidade e de propriedades dispersivas. Nos testes realizados da fonte geradora, foi observado que a fonte gaussiana, conforme Wei et al. (1999), apresentou melhor consistência e estabilidade na geração das ondas, quando comparada à teoria linear para um kh   . A não-linearidade do modelo de ondas de 2ª ordem para a dispersão apresentou resultados satisfatórios quando confrontados com o experimento de ondas sobre um obstáculo trapezoidal, onde a deformação da onda sobre a estrutura submersa está em concordância com os dados experimentais encontrados na literatura. A partir daí, o modelo granular também foi testado em dois experimentos. O primeiro simula uma quebra de barragem em um tanque contendo água e o segundo, a quebra de barragem é simulada com um obstáculo rígido adicionado ao centro do tanque. Nesses experimentos, o algoritmo de colisão foi eficaz no tratamento da interação entre partícula-partícula e partícula-parede, permitindo a evidência de processos físicos que são complicados de serem simulados por modelos de malhas regulares. Para o acoplamento do modelo de ondas e de sedimentos, o algoritmo foi testado com base de dados da literatura quanto à morfologia do leito. Os resultados foram confrontados com dados analíticos e de modelos numéricos, e se mostraram satisfatórios com relação aos pontos de erosão, de sedimentação e na alteração da forma da barra arenosa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evapotranspiração define a perda total de água do sistema solo-planta para a atmosfera. Nas áreas agrícolas, particularmente onde se pratica algum tipo de irrigação, a determinação da evapotranspiração, por via de sensoriamento remoto, vem ganhando cada vez mais importância, pois possibilita identificar a eficiência com que a água tem sido utilizada. Nesse contexto, este trabalho tem o objetivo de determinar a evapotranspiração real diária (ETr diária), com a utilização de produtos do sensor MODIS, nas sub-bacias do Ribeirão Entre Ribeiros e Rio Preto, que ficam entre os Estados de Goiás e Minas Gerais. O SEBAL (Surface Energy Balance Algorithm for Land) foi utilizado para a obtenção da ETr diária em quatro dias diferentes, no período de julho a outubro de 2007. Os resultados encontrados foram compatíveis com os citados em outras literaturas e a comparação entre a evapotranspiração, obtida pelo SEBAL, e a evapotranspiração da cultura (ETc) demonstraram que esse algoritmo pode ser utilizado como boa opção para determinar, com a utilização de produtos do sensor MODIS, a evapotranspiração diária nas condições das sub-bacias do ribeirão Entre Ribeiros e rio Preto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é uma atualização do artigo publicado pelo autor na RAE em 1974 e tem por finalidade: a) definir o Problema da Decisão Qualitativa (PDQ); b) mostrar como certos tipos de problemas lógicos podem ser formulados como PDQs; c) apresentar um método de resolução do PDQ, o qual utiliza resolução de equações booleanas; d) apresentar um processo original de resolução destas equações, o Algoritmo RQ, facilmente programável em computadores. Os resultados apresentados são produto de trabalhos desenvolvidos no antigo Departamento de Engenharia de Eletricidade da EPUSP, os quais deram origem a diversas publicações, entre elas 1, 4, 5, 6, 7, 8, 9, 10, 11,20,23, 24, 25, 28,29 (veja bibliografia no final do artigo). Partes deste artigo são adaptações de trechos de livro do mesmo autor(11), onde se encontram os fundamentos teóricos, aplicações, sugestões para novos desenvolvimentos e listagens para microcomputador do SDB/3, um sistema de auxílio à tomada de decisões que resolve o PDQ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo originou-se da análise dos limites epistemológicos - e, portanto, dos perigos inerentes aos conhecimentos produzidos - no tocante à liderança. Nossas reflexões permitiram estabelecer uma classificação original de diferentes tipos de estudos relativos à liderança. Esses tipos de estudo caracterizam-se por pertencer a um paradigma, que é a concepção de liderança. Em nossa pesquisa, foram identificados quatro paradigmas relacionados à liderança: racionalista, empírico, sensacionista e dogmático. Enquanto o paradigma racionalista concebe a liderança como um algoritmo de ações racionalmente refletidas, o paradigma empírico sustenta que se trata mais de uma habilidade para manipular os instrumentos de mobilização com eficiência. O paradigma sensacionista considera, por sua vez, que a liderança é uma filosofia de vida explícita. Por fim, o paradigma dogmático define a liderança como a expressão da psiquê dos dirigentes. Embora os conhecimentos produzidos em qualquer um dos quatro paradigmas possam revelar-se úteis para a compreensão do fenômeno da liderança, todos eles correm o risco de cair na armadilha de um entusiasmo heurístico. Assim, o racionalismo pode terminar em intelectualismo, o empirismo, em reducionismo, o sensacionismo, em simplismo e o dogmatismo, em misticismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo tem por objetivo desenvolver um algoritmo para representar a dinâmica das interações que conduzem à formação de conexões entre indivíduos dentro de uma organização. Por meio de um procedimento de simulação computacional, utiliza-se um critério matemático para a definição da opinião de um indivíduo sobre outro. O intuito é identificar como diferentes características, em especial o consenso sobre as competências de um indivíduo e o peso atribuído aos valores pessoais, influem na estrutura das redes sociais. Os resultados do modelo mostram que, quando o consenso é alto, a rede é mais densa, conduzindo a relacionamentos mais complexos dentro da organização, podendo implicar sinergias e até mesmo inércia. De modo contrário, quando o consenso é baixo, conflitos em pequenos grupos podem constituir barreiras para a comunicação entre os indivíduos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda o problema do desenho de códigos espácio-temporais para sistemas de comunicação multiple-input multiple-output (MIMO) sem fios. Considera-se o contexto realista e desafiante da recepção não-coerente (a realização do canal é desconhecida no receptor). O detector conhecido como generalized likelihood ratio test (GLRT)é implementado no receptor e, ao contrário da maioria das abordagens actuais, permite-se uma estrutura de correlação arbitrária para o ruído gaussiano de observação. Apresenta-se uma análise teórica para a probabilidade de erro do detector, em ambos os regimes assimptóticos de relação sinal-ruído (SNR) alta e baixa. Essa análise conduz a um critério de optimalidade para desenho de códigos e permite uma re-interpretação geométrica do problema abordado como um problema de empacotamento óptimo num producto Cartesiano de espaço projectivos. A construção dos códigos implica a resolução de um problema de optimização não-linear, não-diferenciável e de dimensão elevada, o qual foi abordado aqui em duas fases. A primeira fase explora uma relaxação convexa do problema original para obter uma estimativa inicial. A segunda fase, refina essa estimativa através de um algoritmo iterativo de descida do gradiente ao longo de geodésicas, explorando-se assim a geometria Riemanniana imposta pelas restricões de potência sobre os códigos espáciotemporais. Mostra-se que o desempenho dos novos códigos obtidos por este método excede o das soluções previamente conhecidas. De facto, para algumas configurações particulares, estas novas constelações atingem o limiar de Rankin e são por isso garantidamente óptimas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A saturação do solo de fundação de um edifício pode estar associada a danos neste, por intermédio de assentamentos de colapso. A anulação da sucção matricial, que representa o efeito das forças inter-partículas de natureza capilar, é responsável por estes assentamentos. Neste trabalho utilizou-se um algoritmo especificamente formulado para simular os assentamentos por colapso. Foram feitas análises numéricas dos assentamentos e danos provocados na fachada em alvenaria de um edifício pela saturação ocorrida numa zona do solo de fundação. Foi estudada a influência dos seguintes factores: a sucção inicial do solo, o grau de pré-consolidação do solo e a extensão e localização da zona saturada.