897 resultados para Mapeamento (Matematica)
Resumo:
A ferrugem da folha é a moléstia de maior importância econômica para a cultura da aveia e a resistência qualitativa, geralmente utilizada para o seu controle, apresenta pouca durabilidade. A utilização de resistência parcial, caracterizada pelo progresso lento da moléstia, tem sido reconhecida como alternativa para obtenção de genótipos com resistência mais durável. Os objetivos deste trabalho foram determinar o progresso da ferrugem, o controle genético da resistência, e identificar marcadores moleculares associados a essa resistência, em várias gerações e anos. Populações F2, F3, F4, F5 e F6 do cruzamento UFRGS7/UFRGS910906 (sucetível/parcialmente resistente) (1998, 1999 e 2000) e F2 do cruzamento UFRGS7/UFRGS922003 (1998), foram avaliadas a campo quanto à porcentagem de área foliar infectada, para determinar a área sob a curva do progresso da doença (ASCPD). Mapeamento molecular, com marcadores AFLP (amplified fragment length polymorphism), foi realizado em F2 e F6, do primeiro cruzamento, identificando marcadores associados à resistência quantitativa (“quantitative resistance loci” ou QRLs). Resultados de três anos evidenciaram alta influência do ambiente na expressão da resistência, apresentando, entretanto, variabilidade genética para resistência parcial nas populações segregantes. A distribuição de freqüências do caráter ASCPD nas linhas recombinantes F5 e F6 foi contínua, indicando a presença de vários genes de pequeno efeito em seu controle. Estimativas de herdabilidade variaram de moderada a alta. O mapa molecular F2 foi construído com 250 marcadores, em 37 grupos de ligação, e o mapa F6 com 86 marcadores em 17 grupos de ligação. Cinco QRLs foram identificados na F2 e três na F6. O QRL identificado na F6, pelo marcador PaaMtt340 apresentou consistência em dois ambientes.
Resumo:
A toxicidade do alumínio é um fator limitante para a obtenção de maior produtividade na cultura da aveia (Avena sativa L.). O desenvolvimento de genótipos tolerantes a altos níveis de toxidez ao alumínio é uma alternativa mais barata e viável para o cultivo em solos com subsolo ácidos. Os objetivos deste estudo foram avaliar genótipos de aveia quanto à reação ao alumínio tóxico em três soluções nutritivas, bem como, determinar a ação gênica, o número de genes, a herdabilidade do caráter e identificar marcadores moleculares associados a tolerância ao alumínio tóxico em genótipos de aveia. Oito genótipos foram avaliados em soluções nutritivas quanto à tolerância ao alumínio tóxico. A utilização de solução nutritiva foi eficiente para a discriminação dos genótipos de aveia quanto à tolerância ao alumínio. Os genótipos apresentaram variabilidade, sendo classificados como tolerantes, intermediários e sensíveis. A ação gênica aditiva foi a de maior importância, tanto na análise de média de gerações de oito cruzamentos, quanto na análise de um dialélico parcial envolvendo quatro genótipos. Em oito cruzamentos para determinação do número de genes envolvidos no caráter, através da análise do recrescimento da raiz principal de plantas em solução nutritiva, a segregação foi de apenas um gene com alelos múltiplos, sendo dois para tolerância (A1 e A2) e um para sensibilidade (a). A herdabilidade da característica foi alta, evidenciando que este caráter pode ser selecionado em programas de melhoramento, nas gerações iniciais. Na análise por microssatélites e AFLP, considerando as condições avaliadas, não foram identificados marcadores moleculares associados ao caráter.
Resumo:
Esta dissertação, após a apresentação de uma revisão bibliográfica sobre aprendizado organizacional e gestão do conhecimento, aborda a questão do mapeamento, identificação e disseminação do conhecimento numa área operacional de uma empresa prestadora de serviços de telecomunicações. Baseado nos princípios da gestão do conhecimento, é descrito como foi realizado um levantamento dos postos de trabalho, seguido do mapeamento do conhecimento existente, identificação das necessidades e disseminação do conhecimento entre os indivíduos integrantes da área operacional. A disseminação do conhecimento ocorreu dentro dos respectivos postos de trabalho, tendo como objetivos aumentar a capacitação de todos os empregados e reduzir o risco de perda do conhecimento por "tum-over". A maior capacitação dos funcionários permite a melhoria da qualidade do serviço prestado e a redução dos tempos de recuperação dos serviços. A partir dos estudos realizados, criou-se um modelo para a implantação da gestão do conhecimento, o qual está organizado em três etapas principais: identificação, mapeamento e disseminação. O modelo proposto possibilita aplicar os conceitos de gestão do conhecimento de uma forma prática, utilizando os recursos disponíveis na própria empresa. O uso do modelo proposto pode auxiliar a manter as equipes capacitadas para o pleno desempenho de suas atividades.
Resumo:
O elevado grau de competição imposto pelo mercado tem gerado nas empresas uma maciça movimentação em busca de melhorias contínuas e radicais nos processos de produção. Desta forma, a busca e identificação de oportunidades de melhoria constitui-se em importante mecanismo de aumento do desempenho e potencial competitivo. No entanto, a sistematização deste procedimento/abordagem esbarra na complexidade das ferramentas conhecidas e atualmente disponíveis para aplicação rotineira na análise dos processos produtivos. Uma análise ou diagnóstico consistente exige, muitas vezes, a aplicação de diversas ferramentas, tornando o processo de identificação de oportunidades e implementação de melhorias exageradamente complexo e moroso. Este estudo identificou a real necessidade de desenvolvimento de uma abordagem eficaz e ao mesmo tempo mais simples de mapeamento das oportunidades de melhoria, propondo uma metodologia de análise de sistemas de produção baseada na utilização conjugada de duas clássicas ferramentas de diagnóstico: o mapeamento da cadeia de valor e o mecanismo da função produção. O estudo parte de uma revisão bibliográfica onde são abordados os principais conceitos concernentes ao processo de diagnóstico e melhoria de sistemas de produção, base para o desenvolvimento da metodologia proposta. O método é, a seguir, testado em um estudo de caso realizado junto a uma empresa fabricante de cores para pintura automotiva.
Resumo:
Esta pesquisa tem como tema o estudo das variáveis analisadas pelos decisores durante o processo de tomada de decisão. A escolha do tema justifica-se pela importância da tomada de decisão nas organizações, e pela necessidade cada vez maior de que as decisões sejam tomadas rapidamente e sem expor a empresa a riscos em demasia. Neste contexto, mapear o que os decisores consideram ao decidir, o que lhes parece importante e mesmo o que consideram secundário ou irrelevante, pode auxiliar outros decisores em diferentes decisões. Isto porque estes poderão mais facilmente selecionar as informações essenciais sobre somente os itens chave, sem gastar tempo com os dispensáveis ou sem valor agregado para determinada decisão. Sendo assim, o foco da pesquisa é definir um conjunto de variáveis que os decisores consideram essenciais ao tomarem decisões nas diversas áreas de gestão, elencando-as por incidência e verificando as diferenças entre as mesmas. Isto permitirá compreender os decisores quanto às suas necessidades de suporte ao processo decisório, constituindo um referencial para confrontar a novas situações. Através de uma survey, foram coletados dados via entrevistas e correio em trinta empresas gaúchas do setor industrial alimentar de médio e grande porte, localizadas em quase todas as regiões geográficas do estado. Os respondentes foram gerentes ou diretores destas empresas, que responderam a um conjunto de questões abertas simulando situações de decisão sobre um conjunto de assuntos. A partir da análise qualitativa e quantitativa dos dados coletados, chegou-se ao conjunto de variáveis consideradas pelos decisores como essenciais, ou seja, que deveriam ser preferencialmente consideradas na tomada de decisão, e elencou-se essas variáveis por área funcional da empresa, complementando o referencial.
Resumo:
o presente trabalho apresenta dados referentes a um levantamento dos níveis de pressão sonora equivalente (Leq),para as 24 horas de um dia típico de semana, em diversos pontos da cidade de Porto Alegre, no Rio Grande do Sul. As informações são processadas através de diferentes análises estatísticas, comparadas com dados de trabalhos anteriores e com resultados de equações de predição de ruído urbano. A metodologia adotada é semelhante à utilizada por García & Faus (1991), em trabalho realizado em cidades da Espanha. O levantamento dos dados de ruído urbano, em período de 24 horas, permite um maior nível de detalhes para a geração de modelos de predição de níveis de pressão sonora e auxilia na visualização da curva de padrões de ruídos horários, para um determinado espaço urbano. Quatorze pontos da cidade foram monitorados, em áreas com características diferenciadas (densidade, população, fluxo de veículos), o que possibilitou verificar os diferentes padrões de ruído associados para cada situação.
Resumo:
Este trabalho realiza um estudo sobre a criação de sistemas tempo-real usando orientação a objetos, com enfoque no mapeamento de especificações para linguagens de programação. O paradigma de orientação a objetos tem sido usado nas diferentes fases relacionadas com o desenvolvimento de sistemas tempo-real, variando desde a modelagem até o ambiente de programação e execução, mas atualmente estas iniciativas ainda focam etapas isoladas do ciclo de desenvolvimento. O objetivo deste trabalho é o de preencher esta lacuna, propondo um mapeamento entre uma metodologia ou ferramenta de análise e projeto de sistemas tempo-real orientados a objetos e uma linguagem ou ambiente de desenvolvimento baseado no paradigma de orientação a objetos que possua suporte para atender às restrições temporais especificadas. O mapeamento proposto foi desenvolvido utilizando estudos de caso clássicos em aplicações tempo-real que foram baseados em dois recentes padrões. O primeiro é o emergente padrão Real-Time UML, que visa realizar a especificação de requisitos temporais utilizando diagramas UML com extensões que os representem. O outro padrão é o Real-Time Specification for Java, que consiste de uma interface de programação (API) para desenvolvimento de aplicações tempo-real com a linguagem Java. O relacionamento entre stereotypes e tags usados para representar restrições temporais em diagramas UML e o código Java correspondente é explicado e um sumário da estratégia de mapeamento é discutido.
Resumo:
O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.
Resumo:
Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.
Resumo:
A temperatura baixa é um estresse comum na cultura do arroz em regiões temperadas, portanto a tolerância ao frio é uma característica altamente desejável em genótipos brasileiros de arroz cultivados no sul do país, onde as temperaturas baixas prejudicam o estabelecimento da lavoura e diminuem o redimento de grãos. O mapeamento molecular é uma estratégia promissora para o estudo e compreensão de de características com controle complexo, tais como a tolerância ao frio em arroz. Com base nisso, os objetivos deste trabalho foram estudar a herança e herdabilidade das características de tolerância ao frio e das características de importância agronômica a serem maepadas, desenvolver um mapa molecular a partir da população segregante F2 proveniente do cruzamento IRGA 417 (Índica) x Quilla 66304 (Japônica) e identificar locos de características quantitativas (QTLs) para a tolerância ao frio no período de germinação e vegetativo e características agronômicas que diferenciam estas duas subespécies. Por fim, investigar a possibilidade de obter indivíduos recombinantes com caracteristicas agronômicas desejáveis e toleância ao frio em uma população F2 do cruzamento entre IRGA 417 x Quilla 66304. As análises das distrbuições de freqüências da geração F2 evidenciaram a dificuldade de estimar o número de genes que controlam as características analisadas, sendo que todas elas apresentam distribuição contínua e segregação transgressiva em relação aos genitores. O mapa foi construído com base em oito marcadores SSR e 42 marcadores do tipo AFLP com uma densidade média de marcador a cada 38,8 cM, sendo o comprimento total do mapa de 581,6 cM. Foram identificados cinco QTLs, sendo que um deles confere tolerância ao frio no período de germinação, e explica 15,9% da variação fenotípica deste caráteer. O outros quatro QTLs identificados foram para largura do grgão (21,3%), esterilidade de espiguetas (61,6%), estatura das plantas (34, 5%) e comprimento do grão (21,9%). A detecção de um QTL associado à tolerância ao frio no período de germinação, e outros QTLs associados à demais características a viabilidade deste tipo de análise. Entretanto, um mapa de ligação enriquecido é nceessário para permitir a detecção de outros QTLs associados às características estudadas. Plantas recombinantes com alto recrescimento de coleóptilo e outrras caracteristicas agronômicas desejáveis foram encontradas, o que evidencia o potencial da população proveniente de IRGA 417 x Quilla 66304 para o melhoramento da tolerância ao frio de genótipos de arroz adaptados ao Sul do Brasil.
Resumo:
Os autores objetivam, com este trabalho preliminar, bem como com aqueles que lhe darão continuidade, na sequência de composição de um livro de matemática para economistas, registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade, e em que ordem. É neste sentido que os autores esperam, com a sequência didática aqui apresentada, trazer alguma contribuição para o assunto.
Resumo:
Os autores objetivam, com este trabalho, bem como com aqueles que lhe precederam (capítulos l, 2, 3 e 4) registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade e em que ordem. É neste sentido que os autores esperam. com a sequência didática aqui apresentada, trazer alguma contribuição para o assunto.
Resumo:
Os autores objetivam, com este trabalho preliminar, bem como com aqueles que lhe darão continuidade, na sequência de composição de um livro de matemática para economistas, registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade, e em que ordem. É neste sentido que os autores esperam, com a sequência didática que aqui se inicia, trazer alguma contribuição para o assunto.
Resumo:
Os autores objetivam, com este trabalho preliminar, bem como com aqueles que lhe darão continuidade, na sequência de composição de um livro de matemática para economistas, registrar as suas experiências ao longo dos últimos anos ministrando cadeiras de matemática nos cursos de pós-graduação em economia da Fundação Getúlio Vargas, da UFF (Universidade Federal Fluminense) e da PUC-RJ. Reveste-se de constante repetição em tais cursos a discussão sobre que pontos abordar, bem como com qual grau de profundidade, e em que ordem. É neste sentido que os autores esperam, com a sequência didática que aqui se inicia, trazer alguma contribuição para o assunto. A parte teórica relativa à demonstração do Teorema de Kuhn Tucker aqui apresentada transcreve, com a aquiescência do autor, textos selecionados de "Análise Convexa do Rn." de Mario Henrique Simonsen.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.