983 resultados para Algoritmo gen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos de escoamento multifásico são amplamente usados em diversas áreas de pesquisa ambiental, como leitos fluidizados, dispersão de gás em líquidos e vários outros processos que englobam mais de uma propriedade físico-química do meio. Dessa forma, um modelo multifásico foi desenvolvido e adaptado para o estudo do transporte de sedimentos de fundo devido à ação de ondas de gravidade. Neste trabalho, foi elaborado o acoplamento multifásico de um modelo euleriano não-linear de ondas do tipo Boussinesq, baseado na formulação numérica encontrada em Wei et al. (1995), com um modelo lagrangiano de partículas, fundamentado pelo princípio Newtoniano do movimento com o esquema de colisões do tipo esferas rígidas. O modelo de ondas foi testado quanto à sua fonte geradora, representada por uma função gaussiana, pá-pistão e pá-batedor, e quanto à sua interação com a profundidade, através da não-linearidade e de propriedades dispersivas. Nos testes realizados da fonte geradora, foi observado que a fonte gaussiana, conforme Wei et al. (1999), apresentou melhor consistência e estabilidade na geração das ondas, quando comparada à teoria linear para um kh   . A não-linearidade do modelo de ondas de 2ª ordem para a dispersão apresentou resultados satisfatórios quando confrontados com o experimento de ondas sobre um obstáculo trapezoidal, onde a deformação da onda sobre a estrutura submersa está em concordância com os dados experimentais encontrados na literatura. A partir daí, o modelo granular também foi testado em dois experimentos. O primeiro simula uma quebra de barragem em um tanque contendo água e o segundo, a quebra de barragem é simulada com um obstáculo rígido adicionado ao centro do tanque. Nesses experimentos, o algoritmo de colisão foi eficaz no tratamento da interação entre partícula-partícula e partícula-parede, permitindo a evidência de processos físicos que são complicados de serem simulados por modelos de malhas regulares. Para o acoplamento do modelo de ondas e de sedimentos, o algoritmo foi testado com base de dados da literatura quanto à morfologia do leito. Os resultados foram confrontados com dados analíticos e de modelos numéricos, e se mostraram satisfatórios com relação aos pontos de erosão, de sedimentação e na alteração da forma da barra arenosa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi identificar genótipos, superiores em produtividade, adaptabilidade e estabilidade, na produção de grãos de feijoeiro, por meio da análise Lin & Binns (1988), modificada por Carneiro (1998). Foram avaliados vinte e dois genótipos pertencentes aos principais programas de melhoramento do país. Essas avaliações constaram de dados dos ensaios de VCU 2007/2008/2009 para o Estado de São Paulo, que seguiram as normas estabelecidas pelo MAPA/SNPC, para ensaios de campo. Estes ensaios foram instalados em vinte e quatro ambientes, nas épocas das águas de 2007 e 2008, seca de 2008 e 2009 e inverno de 2008 e 2009. Os resultados obtidos no conjunto dos anos e ambientes de 2007/2008/2009 demonstraram que os genótipos 'Gen C2-1-3', 'CNFC 10408', 'Juriti Claro' e 'LP 04-72' comportaram-se como os mais estáveis e adaptados. O método Lin & Binns (1988), modificado por Carneiro (1998), mostrou-se adequado para análise dos dados, identificando os genótipos mais estáveis, produtivos e adaptados aos ambientes de cultivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evapotranspiração define a perda total de água do sistema solo-planta para a atmosfera. Nas áreas agrícolas, particularmente onde se pratica algum tipo de irrigação, a determinação da evapotranspiração, por via de sensoriamento remoto, vem ganhando cada vez mais importância, pois possibilita identificar a eficiência com que a água tem sido utilizada. Nesse contexto, este trabalho tem o objetivo de determinar a evapotranspiração real diária (ETr diária), com a utilização de produtos do sensor MODIS, nas sub-bacias do Ribeirão Entre Ribeiros e Rio Preto, que ficam entre os Estados de Goiás e Minas Gerais. O SEBAL (Surface Energy Balance Algorithm for Land) foi utilizado para a obtenção da ETr diária em quatro dias diferentes, no período de julho a outubro de 2007. Os resultados encontrados foram compatíveis com os citados em outras literaturas e a comparação entre a evapotranspiração, obtida pelo SEBAL, e a evapotranspiração da cultura (ETc) demonstraram que esse algoritmo pode ser utilizado como boa opção para determinar, com a utilização de produtos do sensor MODIS, a evapotranspiração diária nas condições das sub-bacias do ribeirão Entre Ribeiros e rio Preto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os programas de melhoramento devem ser dinâmicos e contínuos, de modo a disponibilizarem sempre novos cultivares de cafeeiros, com fatores de resistência complexos, que se constituam em eficientes barreiras para as novas raças fisiológicas do fungo H. vastatrix. Por essa razão, objetivou-se, com este trabalho, avaliar o comportamento agronômico, a resistência à ferrugem e a ocorrência de cercosporiose em progênies, provenientes do cruzamento dos grupos de cultivares Catuaí e Icatu, em dois ambientes de Minas Gerais. Os experimentos foram implantados nas Fazendas Experimentais da EPAMIG, em São Sebastião do Paraíso e Três Pontas - MG. O delineamento experimental adotado foi o látice quadrado 6 x 6, com 3 repetições. Nos dois ambientes, foram realizadas avaliações de produtividade, vigor vegetativo, percentagem de grãos com peneira 17 acima e reação à ferrugem e à cercosporiose, nos anos agrícolas 2009/2010 e 2010/2011. O desempenho das progênies avaliadas, para produtividade, em Três Pontas, foi superior quando comparado ao de São Sebastião do Paraíso. A progênie H 6-47-10 Cova 3 destacou-se entre as mais promissoras, sugerindo boas possibilidades de progresso genético na seleção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi verificar o desempenho de clones elite de batata, em relação a caracteres agronômicos e de qualidade industrial. Os experimentos foram realizados em Pelotas, RS, Canoinhas, SC, e Londrina, PR. Foi avaliado um conjunto de clones elite, pertencentes ao Programa de Melhoramento Genético de Batata, da Embrapa. O delineamento experimental foi o de blocos casualizados, com três repetições para Pelotas e Londrina e quatro para Canoinhas. Foram avaliados os caracteres massa total de tubérculos, massa comercial de tubérculos, número de tubérculos comerciais, percentagem de massa de tubérculos comerciais, massa média de tubérculos comerciais, peso específico, cor de fritura e ciclo vegetativo. A partir dos dados obtidos foram realizadas as análises de variância para cada local e teste de agrupamento de médias para cada caráter. Para identificação de clones apropriados ao mercado 'in natura', em que é fundamental o elevado potencial produtivo e precocidade, os clones mais promissores foram F80-03-06 e CL02-05, quando comparados à cultivar testemunha Ágata. Para o processamento industrial, em que o peso específico, a cor de fritura e o rendimento de tubérculo são caracteres importantes, destacou-se o clone F81-01-06, que apesar de não apresentar os maiores rendimentos totais, apresentou tubérculos grandes, ciclo vegetativo intermediário e boa aptidão para fritura, quando comparando-se ao cultivar testemunha Asterix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é uma atualização do artigo publicado pelo autor na RAE em 1974 e tem por finalidade: a) definir o Problema da Decisão Qualitativa (PDQ); b) mostrar como certos tipos de problemas lógicos podem ser formulados como PDQs; c) apresentar um método de resolução do PDQ, o qual utiliza resolução de equações booleanas; d) apresentar um processo original de resolução destas equações, o Algoritmo RQ, facilmente programável em computadores. Os resultados apresentados são produto de trabalhos desenvolvidos no antigo Departamento de Engenharia de Eletricidade da EPUSP, os quais deram origem a diversas publicações, entre elas 1, 4, 5, 6, 7, 8, 9, 10, 11,20,23, 24, 25, 28,29 (veja bibliografia no final do artigo). Partes deste artigo são adaptações de trechos de livro do mesmo autor(11), onde se encontram os fundamentos teóricos, aplicações, sugestões para novos desenvolvimentos e listagens para microcomputador do SDB/3, um sistema de auxílio à tomada de decisões que resolve o PDQ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo originou-se da análise dos limites epistemológicos - e, portanto, dos perigos inerentes aos conhecimentos produzidos - no tocante à liderança. Nossas reflexões permitiram estabelecer uma classificação original de diferentes tipos de estudos relativos à liderança. Esses tipos de estudo caracterizam-se por pertencer a um paradigma, que é a concepção de liderança. Em nossa pesquisa, foram identificados quatro paradigmas relacionados à liderança: racionalista, empírico, sensacionista e dogmático. Enquanto o paradigma racionalista concebe a liderança como um algoritmo de ações racionalmente refletidas, o paradigma empírico sustenta que se trata mais de uma habilidade para manipular os instrumentos de mobilização com eficiência. O paradigma sensacionista considera, por sua vez, que a liderança é uma filosofia de vida explícita. Por fim, o paradigma dogmático define a liderança como a expressão da psiquê dos dirigentes. Embora os conhecimentos produzidos em qualquer um dos quatro paradigmas possam revelar-se úteis para a compreensão do fenômeno da liderança, todos eles correm o risco de cair na armadilha de um entusiasmo heurístico. Assim, o racionalismo pode terminar em intelectualismo, o empirismo, em reducionismo, o sensacionismo, em simplismo e o dogmatismo, em misticismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo tem por objetivo desenvolver um algoritmo para representar a dinâmica das interações que conduzem à formação de conexões entre indivíduos dentro de uma organização. Por meio de um procedimento de simulação computacional, utiliza-se um critério matemático para a definição da opinião de um indivíduo sobre outro. O intuito é identificar como diferentes características, em especial o consenso sobre as competências de um indivíduo e o peso atribuído aos valores pessoais, influem na estrutura das redes sociais. Os resultados do modelo mostram que, quando o consenso é alto, a rede é mais densa, conduzindo a relacionamentos mais complexos dentro da organização, podendo implicar sinergias e até mesmo inércia. De modo contrário, quando o consenso é baixo, conflitos em pequenos grupos podem constituir barreiras para a comunicação entre os indivíduos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo tem como objetivo analisar o efeito das cláusulas que vinculam o voto dos conselheiros ao acordo de acionistas no valor da firma. A partir de uma base de dados de 181 empresas listadas nos segmentos especiais da BM&FBovespa entre os anos de 2008 e 2012, estudamos o efeito da inclusão de cláusulas genéricas e específicas de vínculo de voto no valor das empresas. Verificamos um efeito negativo do acordo de acionistas no valor da firma, que se acentua na presença de cláusulas genéricas e se ameniza na presença de cláusulas específicas de vínculo de voto ao acordo de acionistas. Esses resultados são consistentes mesmo controlando pela endogeneidade da decisão pelo acordo de acionistas. Assim, os resultados apontam para um "efeito entrincheiramento" dos acionistas de controle no uso dos acordos de acionistas como mecanismo de compartilhamento de controle e voto. Este artigo contribui para a literatura em governança e finanças corporativas ao revelar práticas que enfraquecem a atuação de um dos principais pilares de governança, o conselho de administração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda o problema do desenho de códigos espácio-temporais para sistemas de comunicação multiple-input multiple-output (MIMO) sem fios. Considera-se o contexto realista e desafiante da recepção não-coerente (a realização do canal é desconhecida no receptor). O detector conhecido como generalized likelihood ratio test (GLRT)é implementado no receptor e, ao contrário da maioria das abordagens actuais, permite-se uma estrutura de correlação arbitrária para o ruído gaussiano de observação. Apresenta-se uma análise teórica para a probabilidade de erro do detector, em ambos os regimes assimptóticos de relação sinal-ruído (SNR) alta e baixa. Essa análise conduz a um critério de optimalidade para desenho de códigos e permite uma re-interpretação geométrica do problema abordado como um problema de empacotamento óptimo num producto Cartesiano de espaço projectivos. A construção dos códigos implica a resolução de um problema de optimização não-linear, não-diferenciável e de dimensão elevada, o qual foi abordado aqui em duas fases. A primeira fase explora uma relaxação convexa do problema original para obter uma estimativa inicial. A segunda fase, refina essa estimativa através de um algoritmo iterativo de descida do gradiente ao longo de geodésicas, explorando-se assim a geometria Riemanniana imposta pelas restricões de potência sobre os códigos espáciotemporais. Mostra-se que o desempenho dos novos códigos obtidos por este método excede o das soluções previamente conhecidas. De facto, para algumas configurações particulares, estas novas constelações atingem o limiar de Rankin e são por isso garantidamente óptimas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A saturação do solo de fundação de um edifício pode estar associada a danos neste, por intermédio de assentamentos de colapso. A anulação da sucção matricial, que representa o efeito das forças inter-partículas de natureza capilar, é responsável por estes assentamentos. Neste trabalho utilizou-se um algoritmo especificamente formulado para simular os assentamentos por colapso. Foram feitas análises numéricas dos assentamentos e danos provocados na fachada em alvenaria de um edifício pela saturação ocorrida numa zona do solo de fundação. Foi estudada a influência dos seguintes factores: a sucção inicial do solo, o grau de pré-consolidação do solo e a extensão e localização da zona saturada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde o início da utilização da imunocitoquímica em anatomia patológica, um dos objectivos tem sido detectar as quantidades mais ínfimas de antigénio, tornando-o visível ao microscópio óptico. Vários sistemas de amplificação têm sido aplicados de forma a concretizar este objectivo, tendo surgido um grupo genérico de métodos simples e que apresentam uma amplificação superior: são os denominados métodos do polímero indirecto. Tendo em conta a variedade de métodos disponíveis, os autores propõem-se comparar a sensibilidade de quatro sistemas de amplificação, que recorrem ao método do polímero indirecto com horseradish peroxidase (HRP). Foram utlizadas lâminas de diferentes tecidos fixados em formol e incluídos em parafina, nos quais se procedeu à utilização de 15 antigénios distintos. Na amplificação recorreu-se a quatro sistemas de polímero indirecto (Dako EnVision+ System K4006; LabVision UltraVision LP Detection System TL-004-HD; Novocastra NovoLink RE7140-k; Vector ImmPRESS Reagent Kit MP-7402). A observação microscópica e classificação da marcação obtida foi feita com base num algoritmo que enquadra intensidade, marcação específica, contraste e fundo num score global que pode tomar valores entre 0 e 25. Para o tratamento estatístico foi utilizado o teste oneway ANOVA com post-hoc de tukey (alfa=0.05). O melhor resultado obtido em termos de par média/desvio-padrão dos scores globais foi o do NovoLink (22.4/2.37) e o pior EnVision+ (17.43/3.86). Verificou-se ainda que existite diferença estatística entre os resultados obtidos pelo sistema NovoLink e os sistemas UltraVision (p=.004), ImmPRESS (p=.000) e EnVision+ (p=.000). Concluiu-se que o sistema que permitiu a obtenção de melhores resultados, neste estudo, foi o NovoLink.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda a procura distribuída de soluções baseando-se em cenários cuja informação não esteja totalmente disponível, por não ser possível ou mesmo porque não é desejável. Os dois tipos de problemas abordados neste trabalho são: i) o problema de atribuição de tarefas, e ii) o problema de agendamento de eventos. O problema de atribuição de tarefas é ilustrado num cenário de catástrofe (atribuição de incêndios a bombeiros) cujos agentes tentam encontrar a melhor solução global de acordo com as capacidades de cada um. O problema do agendamento de eventos com múltiplos recursos, ocorre numa organiza- ção que pretende maximizar o valor do tempo dos seus empregados, enquanto preserva o valor individual (privacidade) atribuído ao evento (valor da importância relativa do evento). Estes problemas são explorados para confrontar os dois tipos de abordagem na sua resolução: centralizada e distribuída. Os problemas são formulados para resolução de maneira distribuída e centralizada, de modo a evidenciar as suas características e as situações em que fará mais sentido a utilização de cada abordagem. O desempenho a nível de tempo de execução e consumo de memória, bem como o conceito de privacidade são os pontos considerados no comparativo das abordagens centralizada e distribuída. Para analisar o problema de atribuição de tarefas e o problema de agendamento de eventos, é proposto um modelo que integra dois tipos de formulação de problemas distribuídos, e que utiliza um algoritmo distribuído para a resolução dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As características dos vídeos recolhidos num sistema de videovigilância são bastante diferentes dos vídeos recolhidos para filmes. Cada sistema de videovigilância é único. Este trabalho trata a implementação, e especialização, de um algoritmo de codificação de vídeo para um sistema particular de videovigilância composto por três câmaras fixas. O algoritmo desenvolvido tira partido do facto de se conhecer previamente as características físicas e de utilização do local. Utilizando uma codificação inteligente, a codificação das imagens recolhidas depende do dia da semana, hora, câmara e da detecção de alterações na área que se encontra sob vigilância. A especialização é realizada através da configuração do codificador, tendo em conta critérios pré-definidos, de modo a obter uma relação adequada entre a qualidade de imagem e a compressão dos dados. As imagens são independentemente codificadas pela seguinte ordem de operações: transformada discreta do co-seno, quantização, run-length e codificação de Huffman. São armazenadas todas as imagens onde for detectado movimento, não a totalidade da imagem, mas apenas as regiões onde foi detectado movimento sendo utilizado uma decomposição em árvore quaternária. Foi implementado um protótipo de modo a avaliar o desempenho do algoritmo de codificação. O algoritmo, quando comparado com a técnica de codificação usada no sistema de videovigilância, apresenta uma maior taxa de compressão As imagens descodificadas apresentam qualidade suficiente para identificar as pessoas em pontos críticos e seguir os seus movimentos ao longo do corredor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As comunicações electrónicas são cada vez mais o meio de eleição para negócios entre entidades e para as relações entre os cidadãos e o Estado (e-government). Esta diversidade de transacções envolve, muitas vezes, informação sensível e com possível valor legal. Neste contexto, as assinaturas electrónicas são uma importante base de confiança, fornecendo garantias de integridade e autenticação entre os intervenientes. A produção de uma assinatura digital resulta não só no valor da assinatura propriamente dita, mas também num conjunto de informação adicional acerca da mesma, como o algoritmo de assinatura, o certificado de validação ou a hora e local de produção. Num cenário heterogéneo como o descrito anteriormente, torna-se necessária uma forma flexível e interoperável de descrever esse tipo de informação. A linguagem XML é uma forma adequada de representar uma assinatura neste contexto, não só pela sua natureza estruturada, mas principalmente por ser baseada em texto e ter suporte generalizado. A recomendação XML Signature Syntax and Processing (ou apenas XML Signature) foi o primeiro passo na representação de assinaturas em XML. Nela são definidas sintaxe e regras de processamento para criar, representar e validar assinaturas digitais. As assinaturas XML podem ser aplicadas a qualquer tipo de conteúdos digitais identificáveis por um URI, tanto no mesmo documento XML que a assinatura, como noutra qualquer localização. Além disso, a mesma assinatura XML pode englobar vários recursos, mesmo de tipos diferentes (texto livre, imagens, XML, etc.). À medida que as assinaturas electrónicas foram ganhando relevância tornou-se evidente que a especificação XML Signature não era suficiente, nomeadamente por não dar garantias de validade a longo prazo nem de não repudiação. Esta situação foi agravada pelo facto da especificação não cumprir os requisitos da directiva 1999/93/EC da União Europeia, onde é estabelecido um quadro legal para as assinaturas electrónicas a nível comunitário. No seguimento desta directiva da União Europeia foi desenvolvida a especificação XML Advanced Electronic Signatures que define formatos XML e regras de processamento para assinaturas electrónicas não repudiáveis e com validade verificável durante períodos de tempo extensos, em conformidade com a directiva. Esta especificação estende a recomendação XML Signature, definindo novos elementos que contêm informação adicional acerca da assinatura e dos recursos assinados (propriedades qualificadoras). A plataforma Java inclui, desde a versão 1.6, uma API de alto nível para serviços de assinaturas digitais em XML, de acordo com a recomendação XML Signature. Contudo, não existe suporte para assinaturas avançadas. Com este projecto pretende-se desenvolver uma biblioteca Java para a criação e validação de assinaturas XAdES, preenchendo assim a lacuna existente na plataforma. A biblioteca desenvolvida disponibiliza uma interface com alto nível de abstracção, não tendo o programador que lidar directamente com a estrutura XML da assinatura nem com os detalhes do conteúdo das propriedades qualificadoras. São definidos tipos que representam os principais conceitos da assinatura, nomeadamente as propriedades qualificadoras e os recursos assinados, sendo os aspectos estruturais resolvidos internamente. Neste trabalho, a informação que compõe uma assinatura XAdES é dividia em dois grupos: o primeiro é formado por características do signatário e da assinatura, tais como a chave e as propriedades qualificadoras da assinatura. O segundo grupo é composto pelos recursos assinados e as correspondentes propriedades qualificadoras. Quando um signatário produz várias assinaturas em determinado contexto, o primeiro grupo de características será semelhante entre elas. Definiu-se o conjunto invariante de características da assinatura e do signatário como perfil de assinatura. O conceito é estendido à verificação de assinaturas englobando, neste caso, a informação a usar nesse processo, como por exemplo os certificados raiz em que o verificador confia. Numa outra perspectiva, um perfil constitui uma configuração do serviço de assinatura correspondente. O desenho e implementação da biblioteca estão também baseados no conceito de fornecedor de serviços. Um fornecedor de serviços é uma entidade que disponibiliza determinada informação ou serviço necessários à produção e verificação de assinaturas, nomeadamente: selecção de chave/certificado de assinatura, validação de certificados, interacção com servidores de time-stamp e geração de XML. Em vez de depender directamente da informação em causa, um perfil — e, consequentemente, a operação correspondente — é configurado com fornecedores de serviços que são invocados quando necessário. Para cada tipo de fornecedor de serviços é definida um interface, podendo as correspondentes implementações ser configuradas de forma independente. A biblioteca inclui implementações de todos os fornecedores de serviços, sendo algumas delas usadas for omissão na produção e verificação de assinaturas. Uma vez que o foco do projecto é a especificação XAdES, o processamento e estrutura relativos ao formato básico são delegados internamente na biblioteca Apache XML Security, que disponibiliza uma implementação da recomendação XML Signature. Para validar o funcionamento da biblioteca, nomeadamente em termos de interoperabilidade, procede-se, entre outros, à verificação de um conjunto de assinaturas produzidas por Estados Membros da União Europeia, bem como por outra implementação da especificação XAdES.