105 resultados para métodos de seleção


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foi investigada, em condições de laboratório, a resposta de Gryon gallardoi a grupos de ovos de Spartocera dentiventris de diferentes idades (2, 3, 4, 5, 6, 7, 8 e 12 dias), registrando-se o efeito destas nos processos de seleção do parasitóide e na prole produzida. Os estímulos envolvidos em tais processos e a descrição morfológica das sensilas antenais também foram estudados. O aumento da idade do hospedeiro modificou o comportamento de oviposição, acarretando em um maior tempo de tamborilamento e de inserção do ovipositor, não influenciando o percentual de parasitismo, auto-parasitismo e a proporção de machos, porém acarretou em um maior tempo de desenvolvimento, redução no percentual de emergência, diminuição na aceitação das fêmeas e redução do tamanho corporal da prole do parasitóide. Testes em olfatômetro demonstraram que folhas de fumo provocaram uma maior resposta nas fêmeas recém-emergidas do parasitóide do que nas experientes. (Continua Através do contato, as fêmeas não diferenciaram extratos de ovos jovens e velhos, quando aplicados em ovos lavados com solvente. Ovos não parasitados, impregnados com extrato de parasitados, foram evitados. Cilindros de acrílico de maior tamanho, usados como hospedeiro artificial, resultou em um maior tempo de tamborilamento em relação aos menores. A análise cromatográfica detectou três substâncias diferentes em extrato de ovos de um dia de idade em relação a extrato de ovos de 5 e 12 dias. Nas antenas das fêmeas do parasitóide encontrou-se diferentes tipos de sensilas porosas e aporosas. Os resultados deste trabalho sugerem que a condição do hospedeiro acarreta em modificações no comportamento bem como no sucesso da prole, sendo a aceitação e a discriminação dos mesmos possivelmente influenciada por uma complexa mistura de estímulos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho decorre da importânciada Seleção dos Materiais no Design de produtos como um fator tecnológico para a inovação e minimização de falhas de projetos. Assim, a investigação dos fatores importantes para a determinação dos seus requisitos ou objetivos torna-se primordial para se estabelecer uma seleção adequada na proposta, buscando determinar o grau de satisfação do consumidor através do atendimento às variáveis objetivas e subjetivas dos projetos que foram abordadas neste estudo. Em função do grande número de diferentes materiais existentes, este processo apresenta-se de forma complexa. Desse modo, a investigação realizada, sobre os diferentes meios de interpretação dos materiais, direcionou a pesquisa à abordagem do estudo de caso de uma Materioteca, referenciandoum sistema de seleção de materiais, onde a inclusão das variáveis subjetivas no processo vem determinar vantagens, estimulando a percepção tátil e visual do projetista. A grande participação conjunta e simultânea do Design e da Engenharia, buscando atrelar aspectos estéticos e subjetivos às viabilidades técnicas e produtivas, foram identificadas neste sistema, onde a avaliação da forma, da textura, da funcionalidade, da durabilidade, da sustentabilidade, do conceito, entre outros itens, apontam para a obtenção de novos requisitos com elevado grau de prioridade. Assim, pode-se dizer que o reconhecimento dos valores subjetivos (percepção) dos materiais, uma vez adaptados em projetos, agregam maior valor ao produto resultante, instigando o Designer a cada vez mais confrontar novos quesitos no momento da projetação, reforçando a potencialidade conceitual expressiva contida nos objetos de consumo, como, por exemplo, a marca do produto e o status social que este possa agregar, baseados na forma de pensar e na maneira de viver do consumidor, em função de suas percepções, com base nos principais órgãos dos sentidos. Em suma, os resultados obtidos neste estudo podem ser utilizados em diversas áreas do Design e da Engenharia, agregando-secomo uma ferramenta na orientação de projetos do setor calçadista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segurança dos alimentos é uma preocupação mundial e um fator importante na comercialização de produtos de origem animal. A presença de Salmonella sp. em suínos ao abate e em produtos do tipo frescal podem representar um risco para a saúde do consumidor. A análise de risco prevê a avaliação de diferentes fatores, entre eles a quantificação do microrganismo presente no alimento. A partir disso, a contribuição do presente estudo foi buscar estabelecer um método confiável de quantificação de Salmonella sp. em produtos suínos, uma vez que uma das etapas da análise de risco prevê a quantificação do perigo. No caso de Salmonella sp., a técnica da estimativa do Número Mais Provável (NMP) tem sido adotada. Em uma primeira fase desse trabalho, amostras foram quantificadas, individualmente, com três amostras de Salmonella Typhimurium (ATTCC15290 e 2 amostras de suínos) em três diferentes contagens, 101, 102 e 103 UFC. Para o método A, as amostras quantificadas foram adicionadas a 225 mL de água peptonada tamponada, sendo, posteriormente, fracionadas em 3 alíquotas de 50mL, 5mL e 0,5mL. Para o método B, a amostra fortificada foi diluída em água peptonada tamponada até 10-3, sempre em triplicata. Na segunda fase, foram testadas amostras naturalmente contaminadas, utilizando as mesmas metodologias usadas na primeira fase. Todas as alíquotas de ambos métodos foram incubadas a 370C por 18 horas. Após, cada alíquota foi semeada em caldo Rappaport-Vassiliadis (RV) e incubadas à 420C por 24 h e após, em àgar Xylose-Lysine-Tergitol 4 (XLT4) à 370C por 48 h. Colônias suspeitas foram confirmadas por testes bioquímicos. O número de placas positivas para Salmonella sp. foi utilizado para o cálculo do Número Mais Provável, utilizando tabela apropriada. Na segunda fase, os dois métodos foram avaliados em 20 amostras naturalmente contaminadas, mantidas congeladas por até 115 dias. Em 45 ensaios conduzidos, para cada método, em amostras de lingüiça de carne suína contaminadas artificialmente, 38 do método A e 41 do método B resultaram em NMP (95% de intervalo de confiança) concordante com número de UFC de Salmonella inoculado. A maioria das amostras naturalmente contaminada de massa de embutido apresentaram contagens <10NMP/g. A variabilidade encontrada entre os valores de NMP médio foi bastante elevada, tanto entre os métodos como entre repetições de um mesmo método. Isto reflete uma das limitações do método de NMP para estimar a contagem de microrganismos e deverá ser considerada quando o método for aplicado em alimentos naturalmente contaminados e quando aplicado em um estudo de análise de risco. Uma vez que o método B foi o que demonstrou valores médios de NMP mais próximos das quantidades inoculadas, sugere-se que este seja adotado em estudos futuros de quantificação de Salmonella sp. em produtos de origem suína.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Astronomia, como origem e, talvez, como fim de todas as Ciências, sempre esteve voltada à observação dos astros e à busca de novas técnicas e instrumentos que permitissem ampliar os limites e a qualidade destas observações. Dessa busca resultou o desenvolvimento do telescópio óptico, em 1608, por Galileu Galilei. Com o passar dos anos, esse instrumento foi sofrendo incontáveis aperfeiçoamentos, chegando aos nossos dias como um aparelho preciso e de sofisticada tecnologia. Apesar das fronteiras observacionais terem avançado para além do espectro visível, o telescópio óptico ainda é indispensável à Astronomia. O Brasil, embora não apresente condições meteorológicas ideais para observações astronômicas, possui observatórios ópticos de razoável qualidade, como o Laboratório Nacional de Astrofísica, LNA, em Minas Gerais, entre outros. Em seu extremo sul, no entanto, o País carece de bons instrumentos ópticos, destacando-se unicamente o telescópio da UFRGS instalado no Observatório do Morro Santana, em Porto Alegre. O aumento da iluminação artificial na Região Metropolitana de Porto Alegre e, conseqüentemente, da claridade do céu noturno tem praticamente inviabilizado a operação do Observatório. Assim, a escolha de novos locais para a futura instalação de telescópios ópticos no Estado é imprescindível. Acrescenta-se a isto o fato do ciclo climático desta região diferenciarse daquele das demais regiões do País, fato relevante, dado que um dos fatores determinantes na escolha de novos sítios para telescópios ópticos é a taxa de nebulosidade. Levantamentos in situ de nebulosidade são longos e custosos. Como alternativa, neste trabalho foi realizado um estudo estatístico do Estado, a partir da montagem de um banco de 472 imagens noturnas dos satélites GOES e MeteoSat. A combinação das imagens, por processo de superposição e cálculo de valores médios de contagens (brilho), à escala de pixel, forneceu informações em nível de préseleção, ou indicativo, de locais com altas taxas de noites claras. Foram cobertos os períodos de 1994-1995 e 1998-1999, com focalização nas áreas em torno de Bom Jesus, Vacaria e Caçapava do Sul. Como controle, foi também monitorada a área em torno do LNA em Minas Gerais. Ademais da demonstração metodológica, os dados orbitais indicaram que, na média destes anos, estas áreas são adequadas à instalação de observatórios astronômicos, pela conjugação dos fatores de nebulosidade e altitude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Processos químicos integrados apresentam uma maior dificuldade para garantir o controle global da planta em função das fortes interações que se estabelecem entre as variáveis de processo. A área de estudo conhecida como Plant Wide Control preocupa-se em propor soluções a este problema de controle. Soluções típicas consistem no projeto de estruturas de controle, a partir de técnicas quantitativas de análise da controlabilidade operacional. Entretanto a dificuldade em obter-se modelos confiáveis na fase de projeto de processos, bem como as incertezas derivadas das não-linearidades de sistemas reais, são alguns exemplos das dificuldades que limitam a aplicabilidade de tais métodos e incentivam o desenvolvimento de heurísticas capazes de auxiliar a seleção de estruturas de controle adequadas. Nesta dissertação são utilizadas análises estruturais e técnicas quantitativas no estudo de sistemas simplificados e hipotéticos, permitindo a formulação de heurísticas comprometidas com o controle global do balanço material. O resultado destas análises mostra ser possível implementar uma estrutura de base, de configuração feedforward, fundamentada na garantia de baixa variabilidade do tempo de residência do sistema reacional, através de controle direto ou flutuação do inventário, e na proporcionalidade entre as correntes de processo, via introdução de razões fixas entre as vazões da planta. A utilização destas duas heurísticas garante a estabilidade do balanço material frente a variações da taxa de produção, mesmo sem a implementação de controladores de composição. Em um nível supervisório, são introduzidas malhas de controle feedback, em cascata com a estrutura de base, a fim de corrigir off-sets e controlar composições sob um horizonte de tempo longo de resposta. As estruturas de controle projetadas a partir desta base heurística apresentam um desempenho satisfatório para a rejeição de distúrbios sobre a taxa de produção, de acordo com os resultados de validação do estudo de caso Tennessee Eastman.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A identificação antecipada do comportamento da demanda de veículos novos na extremidade da rede de distribuição é imprescindível para implementação de um sistema de produção puxada pela demanda. Previsões confiáveis, obtidas nas concessionárias, conferem aos fabricantes maior sensibilidade diante das peculariedades locais da demanda e reduzem as incertezas da produção em larga escala. A obtenção de previsões consistentes requer, porém, o emprego de métodos formais. Os profissionais responsáveis pela elaboração de previsões nas concessionárias desconhecem, em grande parte, os métodos de forecasting abordados na literatura. Essa dissertação visa o desenvolvimento de um sistema formal para elaboração de previsões de demanda de veículos novos em concessionárias. Em estudo de caso, conduzido em uma concessionária da marca Volkswagen, modelos estatísticos de Box-Jenkins e de suavização exponencial são aplicados para gerar previsões quantitativas das vendas de veículos novos. Previsões qualitativas, correspondentes ao julgamento de especialistas no segmento, são formalizadas através do método Delphi. Finalmente, as previsões quantitativas e qualitativas são combinadas matematicamente e comparadas. Tal comparação demonstra que as vantagens inerentes a cada método podem ser absorvidas para proporcionar previsões mais acuradas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foram investigados diferentes métodos de preparação de amostra para a determinação de níquel e vanádio em óleo cru usando a espectrometria de absorção atômica com forno de grafite (GF AAS). Investigou-se o uso de xileno como diluente, o qual foi inadequado devido à baixa estabilidade de níquel nas soluções e resultando na contaminação do equipamento. As soluções diluídas em isobutilmetilcetona apresentaram melhor estabilidade, mas não houve reprodutibilidade das medidas com os padrões orgânicos de níquel. Melhores resultados foram obtidos com emulsões óleo-em-água, usando Triton X-100 como surfactante. Também foi estudado o uso de padrões aquosos (inorgânicos) para o preparo das emulsões. Após o estabelecimento de curvas de pirólise para padrão e amostra de óleo cru, observou-se diferença no comportamento térmico do níquel na matriz de óleo cru. Foi então realizada uma investigação usando um espectrômetro de absorção atômica com fonte contínua de alta resolução (HR-CS AAS), equipamento com elevada capacidade de correção de fundo, e constatou-se que cerca de 50 % do analito é perdido em temperaturas abaixo de 400 ºC, enquanto que o restante é termicamente estável até pelo menos 1200 ºC. A fim de resolver o problema de perda de níquel volátil, foi investigado o uso de paládio como modificador químico. Através de curvas de pirólise com e sem paládio, observou-se que a mesma perda também ocorreu para o vanádio. Após a otimização da melhor quantidade de paládio, verificou-se que foi necessária uma quantidade de 20 µg de paládio para estabilização de níquel e vanádio. A determinação de níquel e vanádio total em amostras de óleo cru foi realizada usando-se paládio como modificador químico. A especiação destes elementos foi possível através da determinação das espécies estáveis, provavelmente compostos salinos não porfirínicos de níquel e vanádio, sem a adição de paládio, e a fração de compostos voláteis (provavelmente porfirinas de níquel e vanádio) foi calculada por diferença. Estabeleceram-se as figuras de mérito obtendo-se valores de massa característica de 19 e 33 pg e limite de detecção de 43 e 113 pg para níquel e vanádio, respectivamente. Esses resultados são compatíveis com dados reportados na literatura. A exatidão deste procedimento foi verificada pela análise dos materiais de referência certificados de metais traço em óleo residual (SRM 1634c) para níquel e vanádio e o petróleo (RM 8505) somente para vanádio e também por comparação com os resultados obtidos por HR-CS AAS para várias amostras de óleo cru. A aplicação do teste estatístico t-student aos resultados de níquel e vanádio total obtidos por GF AAS e HR-CS AAS mostrou que os mesmos não são significativamente diferentes a um nível de 95% de confiança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: As doenças mitocondriais apresentam características heterogêneas devido à própria natureza e função da mitocôndria, que possui o seu próprio DNA (mtDNA). A disfunção mitocondrial pode afetar um único órgão ou ser uma doença multissistêmica, de manifestação na infância ou na vida adulta, podendo ter um padrão de herança materna ou mendeliana. O diagnóstico é complexo e requer uma investigação criteriosa, passo-a-passo, com atenção a história clínica, exames laboratoriais, neuroimagem e, muitas vezes, a biópsia muscular para análise histoquímica, bioquímica e genética. A análise molecular é fundamental na definição do diagnóstico e os protocolos propostos até o momento são, geralmente, direcionados para um grupo de pacientes com características clínicas homogêneas. Objetivos: os objetivos deste trabalho foram: a) propor um protocolo combinando dados clínicos e laboratoriais para indicar a melhor forma de investigação molecular de pacientes com suspeita clínica de doença do DNA mitocondrial, b) Comparar os achados clínicos e laboratoriais nos pacientes com e sem mutação no mtDNA, c) avaliar quais são os fatores clínicos preditivos de mutação no mtDNA que podem ser utilizados como sinalizadores para o médico decidir quando deve ser realizado um procedimento diagnóstico invasivo e de alto custo, c) estimar a proporção de mtDNA mutado, através da técnica PCR em tempo real em um grupo de pacientes com deleção, correlacionando com a idade de início dos sintomas e gravidade de manifestações clínicas, d) relatar achados de RNM com espectroscopia por emissão de prótons em pacientes com deleção no mtDNA. Pacientes, material e métodos: Foram selecionados, no ambulatório de doenças mitocondriais do HCPA, 43 pacientes com suspeita clínica de doença mitocondrial. Esse pacientes foram submetidos à análise, por etapas, de 5 mutações de ponto no mtDNA de leucócitos, de deleção no mtDNA de músculo e ao sequenciamento do tRNAleu e tRNAlys. Os pacientes com resultados positivos e negativos para mutações do mtDNA foram então comparados em relação às suas características clínicas e laboratoriais. Foram selecionados 11 pacientes para a determinação da percentagem relativa de deleção do mtDNA no tecido muscular e 3 pacientes para a descrição da RNM com espectroscopia. Resultados – Foram encontradas mutações no mtDNA em 17 pacientes (39.9%) distribuídas da seguinte forma: 4 pacientes com MELAS (A3243G), 1 paciente com síndrome de Leigh (T8993C) e 12 pacientes com deleções no mtDNA. As características significativamente mais freqüentes no grupo de pacientes com mutação no mtDNA comparados com os demais foram: miopatia (p=0,032), retinopatia pigmentar (p=0,007), oftalmoplegia e ptose (p=0,002), baixa estatura (p=0,04), hipotrofismo (p=0,033) e acidose lática (p=0,006). A quantificação do mtDNA pela técnica de PCR em tempo real foi realizada em 11 amostras de músculo de pacientes com deleção no mtDNA e com diferentes manifestações clínicas. Não houve correlação entre a percentagem relativa de deleção no mtDNA com os fenótipos clínicos (PEO, KSS e encefalomiopatia associado à doença multissistêmica), bem como com a idade de início das manifestações clínicas. A RNM com espectroscopia por emissão de prótons realizada em três pacientes com deleção no mtDNA associada a um quadro clínico não clássico mostrou achados distintos para cada paciente, sendo comum a todos as lesões cerebrais e a presença do pico invertido de lactato. Conclusões - A criteriosa seleção clínica e laboratorial se mostrou apropriada e o protocolo empregado se mostrou eficiente, uma vez que a mutação no mtDNA pode ser detectada em 17 dos 43 pacientes com suspeita de doença mitocondrial. Os pacientes positivos para deleção no mtDNA apresentaram algumas características clínicas preditivas para doença do mtDNA, o que pode ser importante na indicação de um procedimento invasivo (biópsia muscular) e de alto custo. A técnica e PCR em tempo real pode ser utilizado para quantificar a percentagem relativa de mtDNA deletado, porém para o diagnóstico das deleções, essa técnica deve ser realizada de forma complementar à técnica tradicional (Southern blot). O número amostral ainda é pequeno para correlacionar a quantidade relativa de mtDNA deletado com as síndromes mitocondriais clássicas e não clássicas. A RNM com espectroscopia por emissão de prótons, por possibilitar a detecção do lactato cerebral, parece ter utilidade na avaliação clínica de pacientes com suspeita clínica de doença mitocondrial, mesmo quando o quadro não é clássico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As bactérias do gênero Paenibacillus são isolados de uma grande variedade de ambientes e tem como característica a produção e secreção de enzimas extracelulares, antimicrobianos e compostos antifúngicos inibidores de vários patógenos animais e vegetais. Os 55 isolados de 15 espécies de Paenibacillus foram testados frente a diversos substratos a fim de verificar a produção de enzimas extracelulares. Foram também testados frente a uma variedade de bactérias e fungos fitopatógenos, humanos e animais para a produção de antibióticos. Nessa triagem, P. validus, P. chibensis, P. koreensis e P. peoriae se destacaram inibindo a maioria das bactérias indicadoras. As espécies P. validus, P. chibensis e P. peoriae foram bons produtores de substancias que inibiram o crescimento de fungos, demonstrando que o gênero possui um amplo espectro de atuação. O tradicional procedimento de triagem para obterem-se novos microrganismos produtores de enzimas para fins biotecnológicos foi executado neste trabalho. As 55 linhagens foram avaliadas na sua capacidade de produzir amilase, proteases (caseinase), celulase, xantanase, xilanase, pectinase, quitinase e lipase. Os isolados se mostraram bons produtores de enzimas hidrolíticas, já que 26 apresentaram atividade xilanolítica, 17 atividade pectinolítica, 49 atividade proteolítica, 43 atividade xantanolítica, 40 atividade celulolítica, 17 atividade lipolítica, 39 atividade amilolítica em condições neutras (pH 7) e 26 atividade amilolítica em condições alcalinas (pH 10), e apenas 4 apresentaram atividade quitinolítica. Sendo assim, esses isolados são candidatos a serem utilizados como agentes biocontroladores ou podem ser explorados como produtores de antimicrobianos e de enzimas hidrolíticas de interesse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.