1000 resultados para Base de dados e Aplicação Móvel


Relevância:

100.00% 100.00%

Publicador:

Resumo:

INTRODUÇÃO: Marketing médico é um assunto controverso, principalmente no que concerne a princípios éticos. Portanto, frente à competição acirrada de mercado, é necessário o preparo profissional. Conhecer a percepção dos alunos de Medicina pode auxiliar na estruturação de alternativas de capacitação. METODOLOGIA: Inicialmente, identificaram-se crenças sobre marketing médico através de grupo focal composto por 12 alunos. Com base nesses dados, dez afirmações para avaliar atitudes foram aplicadas aos alunos de uma Faculdade de Medicina pública brasileira. RESULTADOS: Observou-se falta de clareza sobre o conceito de marketing, preocupação com princípios éticos e necessidade de marketing no mercado competitivo. Na fase de aplicação, foram obtidas 280 respostas de diversos estágios do curso. Apenas 16,8% admitiram contato com o tema. Houve clareza sobre ética em relação ao paciente, influenciada positivamente pela progressão no curso, mas houve divergência na ética entre profissionais. CONCLUSÕES: Marketing médico é uma área pouco compreendida e relegada ao currículo oculto, sendo influenciada por transposições inadequadas de métodos didáticos destinados à comunicação profissional para a população leiga. Novos métodos de ensino, como a educação tutorial, podem ser uma alternativa para lidar com essas situações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo básico do trabalho foi avaliar os custos econômicos relacionados às doenças dos aparelhos respiratório e circulatório no município de Cubatão (SP). Para tanto, foram utilizados dados de internação e dias de trabalho perdidos com a internação (na faixa dos 14 aos 70 anos de idade), na base de dados do Sistema Único de Saúde (SUS). Resultados: A partir dos dados levantados, calculou-se o valor total de R$ 22,1 milhões gastos no período de 2000 a 2009 devido às doenças dos aparelhos circulatório e respiratório. Parte desses gastos pode estar diretamente relacionada à emissão de poluentes atmosféricos no município. Para se estimar os custos da poluição foram levantados dados de outros dois municípios da Região da Baixada Santista (Guarujá e Peruíbe), com menor atividade industrial em comparação a Cubatão. Verificou-se que, em ambos, as médias de gastos per capita em relação às duas doenças são menores do que em Cubatão, mas que essa diferença vem diminuindo sensivelmente nos últimos anos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho pretende mapear a região do ABC dando ênfase ao processo de desenvolvimento industrial e ao aumento da densidade demográfica decorrente. Isto se dá a partir do estudo quantitativo da mão de obra necessária. que reflete diretamente no emprego. O enfoque será mais acurado nesse aspecto. Num primeiro momento, aborda-se o contexto histórico, análise do processo de urbanização do século passado, que culmina com a instalação das indústrias na região. A abertura econômica do início dos anos 90, a aplicação de novas tecnologias e novas ferramentas de administração também fazem parte desse contexto. Nesse período o processo de industrialização sofre uma reestruturação comprometendo a aptidão regional, a chamada desindustrialização . O foco principal será a indústria automobilista, sem dúvida a de maior importância para e na região. No segundo momento, descreve-se quantitativamente o processo de mudança do comportamento da região e, analisa-se em paralelo, o desemprego e emprego nos setores industrial e de serviços. no período que compreende a última década do século XX , início do XXI. Por fim, mas não de menor importância, busca-se descrever e entender o surgimento das novas aptidões, geradas principalmente pela mudança de alocação das indústrias. Analisando questões como transformação da aptidão regional emprego e desemprego com base nos dados disponibilizados pelas instituições de pesquisa, buscando correlações entre variáveis para enfim, determinar como de fato se encontra hoje o emprego, o trabalhador e principalmente o processo industrial da região.(AU)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho pretende mapear a região do ABC dando ênfase ao processo de desenvolvimento industrial e ao aumento da densidade demográfica decorrente. Isto se dá a partir do estudo quantitativo da mão de obra necessária. que reflete diretamente no emprego. O enfoque será mais acurado nesse aspecto. Num primeiro momento, aborda-se o contexto histórico, análise do processo de urbanização do século passado, que culmina com a instalação das indústrias na região. A abertura econômica do início dos anos 90, a aplicação de novas tecnologias e novas ferramentas de administração também fazem parte desse contexto. Nesse período o processo de industrialização sofre uma reestruturação comprometendo a aptidão regional, a chamada desindustrialização . O foco principal será a indústria automobilista, sem dúvida a de maior importância para e na região. No segundo momento, descreve-se quantitativamente o processo de mudança do comportamento da região e, analisa-se em paralelo, o desemprego e emprego nos setores industrial e de serviços. no período que compreende a última década do século XX , início do XXI. Por fim, mas não de menor importância, busca-se descrever e entender o surgimento das novas aptidões, geradas principalmente pela mudança de alocação das indústrias. Analisando questões como transformação da aptidão regional emprego e desemprego com base nos dados disponibilizados pelas instituições de pesquisa, buscando correlações entre variáveis para enfim, determinar como de fato se encontra hoje o emprego, o trabalhador e principalmente o processo industrial da região.(AU)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Administração Financeira surge no início do século XIX juntamente com o movimento de consolidação das grandes empresas e a formação dos mercados nacionais americano enquanto que no Brasil os primeiros estudos ocorrem a partir da segunda metade do século XX. Desde entãoo país conseguiu consolidar alguns centros de excelência em pesquisa, formar grupo significativo de pesquisadores seniores e expandir as áreas de pesquisa no campo, contudo, ainda são poucos os trabalhos que buscam retratar as características da produtividade científica em Finanças. Buscando contribuir para a melhor compreensão do comportamento produtivo dessa área a presente pesquisa estuda sua produção científica, materializada na forma de artigos digitais, publicados em 24 conceituados periódicos nacionais classificados nos estratos Qualis/CAPES A2, B1 e B2 da Área de Administração, Ciências Contábeis e Turismo. Para tanto são aplicadas a Lei de Bradford, Lei do Elitismo de Price e Lei de Lotka. Pela Lei de Bradford são identificadas três zonas de produtividade sendo o núcleo formado por três revistas, estando uma delas classificada no estrato Qualis/CAPES B2, o que evidencia a limitação de um recorte tendo como único critério a classificação Qualis/CAPES. Para a Lei do Elitismo de Price, seja pela contagem direta ou completa, não identificamos comportamento de uma elite semelhante ao apontado pela teoria e que conta com grande número de autores com apenas uma publicação.Aplicando-se o modelo do Poder Inverso Generalizado, calculado por Mínimos Quadrados Ordinários (MQO), verificamos que produtividade dos pesquisadores, quando feita pela contagem direta, se adequa àquela definida pela Lei de Lotka ao nível de α = 0,01 de significância, contudo, pela contagem completa não podemos confirmar a hipótese de homogeneidade das distribuições, além do fato de que nas duas contagens a produtividade analisada pelo parâmetro n é maior que 2 e, portanto, a produtividade do pesquisadores de finanças é menor que a defendida pela teoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No presente trabalho foram estudadas as separações de 18 flavonóides (9 agliconas e 9 glicosídeos) pelas técnicas de Cromatografia Líquida de Alta Eficiência em fase reversa (RP-HPLC) e Cromatografia Micelar Eletrocinética em fluxo reverso (RF-Meck). Em ambas as técnicas foram avaliados solventes puros (metanol, acetonitrila e tetrahidrofurano) e suas misturas como formas de promover a variação de seletividade, através da modificação da fase móvel em HPLC, e da natureza do aditivo orgânico em RF-Meck. Nos estudos efetuados em HPLC utilizando-se gradiente, pode-se comprovar a possibilidade da modelagem do fator de retenção em funçã da proporção de solvente utilizados (MeOH, ACN, THF e suas misturas). Pode-se ainda, com base nos dados de retenção e na análise hierárquica de c1usters, diferenciar quatro diferentes grupos de sistemas cromatográficos com diferentes seletividades para flavonóides agliconas, e outros quatro com diferentes seletividades para glicosídeos. Os sistemas cromatográficos mais ortogonais (cada um pertencente a um grupo de seletividade) foram aplicados na separação de uma planta modelo (Azadirachta indica), de onde pode-se escolher a fase móvel mais seletiva para se otimizar a separação dos flavonóides glicosilados presentes nas folhas desta planta. No método final otimizado pode-se identificar e quantificar cinco dos flavonóides majoritários presentes, sendo três glicosídeos de quercetina (rutina, isoquercitrina e quercitrina) e dois glicosídeos de kaempferol (astragalin e nicotiflorin), em amostras de duas diferentes procedências (Piracicaba-SP e Silvânia-GO). Nos estudos envolvendo a separação dos dezoito flavonóides por RFMEKC pode-se comprovar diferenças significativas de seletividade quando se varia a natureza do solvente orgânico utilizado como aditivo, além de se observar tendências na migração em função das propriedades do solvente adicionado e da estrutura molecular do flavonóide. O solvente de menor eficiência para separação dos flavonóides foi o MeOH. Através da análise dos eletroferogramas obtidos através de um planejamento experimental de misturas, e das trocas de pares críticos observadas nos vários eletrólitos utilizados, obteve-se um método de separação com apenas um par crítico em menos de 12 minutos de corrida. O coeficiente de variação obtido para o fator de retenção foi de 1,5% e para área de 3%, considerando-se cinco injeções. O método desenvolvido foi aplicado com sucesso na identificação dos flavonóides majoritários presentes na planta modelo (Neem), obtendo-se o mesmo resultado do estudo anterior. Como forma de avaliar a concentração de flavonóides totais presentes em espécies vegetais é comum a análise de extratos após hidrólise ácida (conversão de todos glicosídeos em agliconas). Desta forma otimizou-se uma metodologia de separação em RP-HPLC de 8 flavonóides agliconas comumente presentes em alimentos e extratos vegetais de uso cosmético. A otimização foi efetuada mediante um planejamento experimental de misturas, para escolha da fase móvel mais seletiva, e de um planejamento fatorial composto central, para otimização das condições de gradiente. O método obtido foi o mais rápido já visto dentro da literatura consultada. A separação em linha de base foi efetuada em menos de 15 minutos, com coeficientes de variação de área entre 0,1 e 1,8%, coeficiente de correlação de 0,9993 a 0,9994 na faixa de 5 a 100 µg/mL, e limites de quantificação estimados na faixa de 0,1 a 0,21µg/mL. O método desenvolvido foi aplicado na otimização das condições de hidrólise de um extrato de Neem. A otimização foi efetuada através de metodologia de superfície de resposta, levando-se em consideração a concentração de ácido adicionada, o tempo de reação, a temperatura, e a concentração de um antioxidante (ácido ascórbico) adicionado. O resultado da otimização foi uma metodologia de hidrólise com tempo de reação igual a 5 minutos, utilizando-se 1,4 mol/L de HCI, 119°C e 500 µg/mL de ácido ascórbico. Através das metodologias de análise e de hidrólise desenvolvidas pode-se constatar a presença e quantificar no extrato de Neem os flavonóides agliconas quercetina, kaempferol e miricetina. Com o objetivo de se avaliar quais os componentes presentes em extratos vegetais são os responsáveis pelo poder antioxidante atribuído a determinadas plantas, foi montado um sistema de avaliação de poder antioxidante \"on-line\" com reação pós-coluna em HPLC (baseado na literatura) utilizando-se como \"radical livre modelo\" o ABTS. A análise da planta modelo (Neem) neste sistema mostrou que os flavonóides glicosilados identificados nas partes anteriores deste trabalho são os responsáveis pelo poder antioxidante atribuído a esta planta. De posse desta informação, e visando a obtenção de extratos para aplicações cosméticas com poder antioxidante, modelou-se a extração dos flavonóide do Neem em função da composição do solvente extrator (água, etanol , propilenoglicol e suas misturas), de acordo com um planejamento simplex centróide ampliado. Além da previsão da concentração dos princípios ativos pode-se ainda prever outras propriedades dos extratos obtidos, tais como, índice de refração e densidade, muitas vezes constituintes de especificações técnicas de acordo com as aplicações a que se destinam (cremes, xampús, etc).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho descreve a síntese, caracterização e aplicação de sistemas poliméricos baseados em polímeros condutores em sistemas de liberação controlada de drogas. Esta tese pode ser dividida em duas partes: na primeira se apresentam os resultados da aplicação de filmes de polianilina e polipirrol na liberação de drogasmodelo como a dopamina protonada e o ácido salicílico. Na liberação de salicilato utilizou-se um filme polianilina eletrosintetizado e dopado com íons cloreto. Já para a liberação de dopamina protonada (um cátion) a liberação foi conduzida a partir de um sistema bicamadas, com um filme de polianilina recoberta com uma camada de Náfion. É mostrada a liberação controlada nos dois casos, porém também se discutem limitaçãoes deste tipo de sistema que levaram ao estudo de uma forma alternativa de controle eletroquímico utilizando polímeros condutores. A segunda parte do trabalho mostra então esta nova metodologia que se baseia em compósitos de poianilina eletropolimerizada no interior de hidrogéis de poliacrilamida. É mostrado que este novo material é eletroativo e mantém as características de intumescimento dos hidrogéis, tanto necessárias ao desenvolvimento destes sistemas de liberação controlada. Mecanismos para o crescimento e distribuição da polianilina na matriz isolante e para a atuação do compósito no controle eletroquímico da liberação são propostos com base nos dados de microscopia de força atômica, Raman e eletrônica de varredura, além de testes de liberação controlada com moléculas de diferentes cargas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As represas construídas em cascata no rio Tietê (Barra Bonita, Bariri, Ibitinga, Promissão, Nova Avanhandava e Três Irmãos) constituem em sistemas artificiais com grande importância ecológica, econômica e social. Com base nos dados físico-químicos e biológicos das seis represas, foram avaliadas as condições limnológicas, abundância da comunidade fitoplanctônica e zooplanctônica e o estado de trofia dos reservatórios através da aplicação do índice do estado trófico, desenvolvido por Carlson (1977). A utilização da concentração de fósforo para determinação do índice é o que deu melhor resultado, mostrando uma redução gradual de sua concentração nas represas seqüenciais, principalmente no período do verão. Os reservatórios que se mostraram eutróficos como o de Barra Bonita, Bariri e Ibitinga apresentaram uma maior abundância e freqüência de florescimento das algas pertencentes a classe Cyanophyceae principalmente das espécies Microcystis aeruginosa. Algumas espécies de Rotifera, como Asplanchna sieboldi, Brachionus caliciflorus e Kellicottia bostoniensis, e de Copepoda Calanoida Notodiaptomus iheringi, também serviram de indicativos do estado trófico dos sistemas, já que esses estão associados a ambientes eutróficos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta um procedimento simples e robusto para avaliação e análise do desempenho de instalações propulsoras de embarcações de pesca operando no Estado do Espírito Santo. O objetivo é verificar se as embarcações estão operando com baixa eficiência propulsiva, portanto, com consumo de combustível maior do que o desejável, e identificar possíveis ações de melhoria desta eficiência que poderiam ser implementadas com baixo custo. Tendo em vista as condições artesanais da construção e operação das embarcações de pesca no Espírito Santo, o procedimento foi desenvolvido de forma a poder ser aplicado com relativa facilidade pelas pessoas envolvidas na atividade pesqueira artesanal neste Estado. O procedimento envolve o levantamento de informações sobre a geometria do casco, as características da instalação propulsora existente e sobre alguns aspectos do desempenho das embarcações. Para este levantamento são propostos métodos e técnicas suficientemente simples para que possam ser facilmente aplicadas nos estaleiros. Com base nestes dados levantados implementou-se no procedimento proposto diversos algoritmos que permitem determinar o coeficiente propulsivo das embarcações de pesca e a perda de energia útil que ocorre tanto no motor, por conta de condições inadequadas de operação, quanto na transmissão desta energia para o hélice. Para a validação dos métodos e técnicas envolvidos neste procedimento e dos resultados fornecidos por ele, o mesmo foi aplicado em alguns cascos de embarcações de pesca disponíveis em estaleiros visitados no Estado. Para uma destas embarcações o procedimento foi aplicado em sua totalidade, permitindo identificar a baixa eficiência da instalação propulsora e algumas das possíveis causas que provocam a perda de energia útil no sistema. Finalmente, com base nesse exemplo de aplicação, um estudo de possíveis melhorias na instalação propulsora é apresentado ao final do trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As cooperativas de crédito são instituições financeiras que têm como finalidade principal a prestação de serviços bancários e de intermediação financeira voltando-se para a geração de benefícios ao cooperado, através de benefícios econômicos encontrados sob a forma cooperativada. Considerando o objetivo destas organizações, o presente trabalho teve por objetivo avaliar a eficiência das mesmas considerando duas vertentes: 1) a atividade de intermediação financeira; e 2) a atividade de prestação de serviços bancários, a partir de variáveis contábeis. A técnica utilizada para a avaliação da eficiência foi a Análise Envoltória de Dados e foram analisados os determinantes da eficiência por meio de regressões do tipo Tobit. A amostra é composta por 315 cooperativas singulares listadas na base de dados do Banco Central do Brasil e foram utilizados os dados dos balancetes anuais e semestrais (soma dos semestres para as contas de resultado de cada ano) apresentados para período de 2007 a 2014. Os resultados indicaram baixa eficiência das cooperativas na prestação de serviços bancários, com 73% da amostra apresentando ineficiência ao longo de todos os anos do período em análise. Na atividade de intermediação financeira 20 cooperativas foram eficientes ao longo do período completo, com as demais apresentando graus de ineficiência abaixo de 16% em todos os anos. Quanto aos determinantes da eficiência, verificou-se como principais fatores na atividade de intermediação financeira a Imobilização, a Insolvência, o Descasamento Passivo e as Despesas Administrativas, enquanto na atividade de prestação de serviços os principais determinantes foram a Captação por Floating e as Despesas Administrativas. Os resultados da eficiência na intermediação financeira indicaram baixos graus de ineficiência, enquanto os altos graus de ineficiência na prestação de serviços bancários alertaram para a pouca importância dada ao fornecimentos destes serviços e para a importância de se utilizar dois modelos distintos para a avaliação da eficiência em cooperativas de crédito, dado o comportamento desvinculado entre as duas atividades avaliadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Tecnologia do Instituto Politécnico de Castelo Branco para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Desenvolvimento de Software e Sistemas Interactivos, realizada sob a orientação científica do Professor Doutor Filipe Miguel Bispo Fidalgo, do Instituto Politécnico de Castelo Branco e da coorientação científica do Professor Doutor Rogério Pais Dionísio, Instituto Politécnico de Castelo Branco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior Agrária do Instituto Politécnico de Castelo Branco para cumprimentos dos requisitos necessários à obtenção do grau de Mestre em Sistemas de Informação Geográfica em Recursos Agro-Florestais e Ambientais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tese de mestrado, Bioinformática e Biologia Computacional (Bioinformática), Universidade de Lisboa, Faculdade de Ciências, 2016

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tese de mestrado integrado, Engenharia da Energia e do Ambiente, Universidade de Lisboa, Faculdade de Ciências, 2016