24 resultados para Análise de decisão multi-critério

em Biblioteca de Teses e Dissertações da USP


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho trata da logística envolvida em operações de resposta a desastres, com foco na entrega final de suprimentos destinados a ajudar vítimas. Seu propósito é investigar os objetivos pertinentes ao planejamento do transporte da carga e encontrar uma metodologia para definir estratégia que sirva à tomada de decisão em campo. Para tanto, primeiramente identifica-se os objetivos adotados em modelos de Pesquisa Operacional para a tarefa em questão, através da análise de conteúdo das publicações pertinentes. Então, a abordagem do Pensamento Focado em Valores é utilizada para estruturar o problema. Finalmente, o método Simple Multi-Attribute Rating Technique Exploiting Ranks (SMARTER) é empregado na construção de um modelo de Análise da Decisão Multicritério (ADM), com consulta a um profissional experiente da área humanitária e aproveitando a análise da literatura previamente realizada. Neste processo, são elaboradas e avaliadas seis alternativas para a tomada de decisão condizentes com os valores da comunidade humanitária. Os resultados obtidos mostram que existe incompatibilidade entre os critérios de desempenho identificados nas publicações existentes e os objetivos perseguidos pelo Tomador da Decisão (TD) real. De acordo com o modelo construído, o atendimento de prioridades e a manutenção da sustentabilidade da operação são os objetivos que devem ser levados em conta para planejar a entrega de carga em pós-desastre, sendo que o custo e a equidade da distribuição não devem ser considerados. Conclui-se que o método adotado é útil à definição destes critérios e também ao desenvolvimento de estratégias que resultem em distribuições de ajuda melhores, aos olhos do próprio TD. Desta forma, ressalta-se que este trabalho contribui à área da Logística Humanitária com a investigação dos objetivos, assim como ao campo da ADM pela formalização dos processos de elaboração de alternativas, além da adição de mais uma aplicação possível ao repertório do método SMARTER.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo deste estudo consistiu-se em analisar os fatores influentes no comportamento de compra industrial, na situação de decisão de crédito bancário em pequenas empresas. Para tanto, foram entregues questionários a doze empresas da indústria gráfica, selecionadas pelo número de empregados (de 20 a 100 - pequenas indústrias, segundo o critério do IBGE), localizadas no Distrito Federal e associadas ao sindicato da categoria. De acordo com resultados obtidos por meio do levantamento de campo, as conclusões desta pesquisa puderam ser exploradas tendo-se como base três pontos principais: a) os resultados relativos aos fatores influentes no comportamento do consumidor industrial, tais como os referentes a importância da localização geográfica do fornecedor, dos seus recursos tecnológicos e da redução, pelos compradores, dos riscos percebidos nas decisões de compras, dentre outros que mostraram-se condizentes com as pressuposições do modelo de comportamento do mercado industrial adotado; b) a discussão relativa à situação de decisão de crédito bancário, baseado na literatura pesquisada. De acordo com os resultados, puderam-se detalhar os aspectos relativos aos atributos dos bancos e do crédito, destacando-se, dentre outros, a importância da imagem da instituição financeira, da qualidade do gerente de contas e do custo dos empréstimos e financiamentos; c) as especificidades da pequena empresa, que puderam ser visualizadas nos resultados da pesquisa de campo como, por exemplo, a estratégia intuitiva e pouco formalizada, a situação extra-organizacional incontrolável e a racionalidade político-econômico-familiar do pequeno empresário.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objeto desta pesquisa são as relações entre os conceitos de interpretação conforme a Constituição e os limites à utilização, segundo a doutrina brasileira. O propósito é verificar se e como os diferentes conceitos de interpretação conforme a Constituição empregados pelos autores influenciam seus argumentos em torno dos limites à utilização desse instrumento. Parte-se de um referencial teórico de análise conceitual, ancorado sobretudo nos trabalhos de Brian Bix e Andrew Halpin, para estruturar-se a identificação e a análise dos diferentes conceitos presentes na literatura. Opta-se pela apresentação das ideias dos autores mais influentes na doutrina nacional, selecionados a partir de um critério de número de citações e especialidade da obra. Ao final, conclui-se que: (a) os autores utilizam ao menos nove conceitos diferentes: (i) como interpretação orientada pela Constituição, (ii) integração conforme a Constituição, critério normativo (iii) com e (iv) sem declaração de inconstitucionalidade, (v) interpretação extensiva ou restritiva de acordo com a Constituição, (vi) declaração de inconstitucionalidade da interpretação em concreto, (vii) um tipo de decisão com estrutura específica e (viii) um tipo de dispositivo decisório específico; (ix) um argumento retórico; (b) que os autores geralmente mencionam os mesmos limites, independentemente do conceito que adotam; (c) que, no entanto, os limites não se adequam da mesma forma a todos os conceitos empregados. Sustenta-se que o esclarecimento dessas relações é capaz de aumentar a compreensão sobre o tema, inclusive para os fins de análise da jurisprudência.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Os motores de indução trifásicos são os principais elementos de conversão de energia elétrica em mecânica motriz aplicados em vários setores produtivos. Identificar um defeito no motor em operação pode fornecer, antes que ele falhe, maior segurança no processo de tomada de decisão sobre a manutenção da máquina, redução de custos e aumento de disponibilidade. Nesta tese são apresentas inicialmente uma revisão bibliográfica e a metodologia geral para a reprodução dos defeitos nos motores e a aplicação da técnica de discretização dos sinais de correntes e tensões no domínio do tempo. É também desenvolvido um estudo comparativo entre métodos de classificação de padrões para a identificação de defeitos nestas máquinas, tais como: Naive Bayes, k-Nearest Neighbor, Support Vector Machine (Sequential Minimal Optimization), Rede Neural Artificial (Perceptron Multicamadas), Repeated Incremental Pruning to Produce Error Reduction e C4.5 Decision Tree. Também aplicou-se o conceito de Sistemas Multiagentes (SMA) para suportar a utilização de múltiplos métodos concorrentes de forma distribuída para reconhecimento de padrões de defeitos em rolamentos defeituosos, quebras nas barras da gaiola de esquilo do rotor e curto-circuito entre as bobinas do enrolamento do estator de motores de indução trifásicos. Complementarmente, algumas estratégias para a definição da severidade dos defeitos supracitados em motores foram exploradas, fazendo inclusive uma averiguação da influência do desequilíbrio de tensão na alimentação da máquina para a determinação destas anomalias. Os dados experimentais foram adquiridos por meio de uma bancada experimental em laboratório com motores de potência de 1 e 2 cv acionados diretamente na rede elétrica, operando em várias condições de desequilíbrio das tensões e variações da carga mecânica aplicada ao eixo do motor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Geralmente, nos experimentos genótipo por ambiente (G × E) é comum observar o comportamento dos genótipos em relação a distintos atributos nos ambientes considerados. A análise deste tipo de experimentos tem sido abordada amplamente para o caso de um único atributo. Nesta tese são apresentadas algumas alternativas de análise considerando genótipos, ambientes e atributos simultaneamente. A primeira, é baseada no método de mistura de máxima verossimilhança de agrupamento - Mixclus e a análise de componentes principais de 3 modos - 3MPCA, que permitem a análise de tabelas de tripla entrada, estes dois métodos têm sido muito usados na área da psicologia e da química, mas pouco na agricultura. A segunda, é uma metodologia que combina, o modelo de efeitos aditivos com interação multiplicativa - AMMI, modelo eficiente para a análise de experimentos (G × E) com um atributo e a análise de procrustes generalizada, que permite comparar configurações de pontos e proporcionar uma medida numérica de quanto elas diferem. Finalmente, é apresentada uma alternativa para realizar imputação de dados nos experimentos (G × E), pois, uma situação muito frequente nestes experimentos, é a presença de dados faltantes. Conclui-se que as metodologias propostas constituem ferramentas úteis para a análise de experimentos (G × E) multiatributo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve por objetivo o desenvolvimento de uma proposta de um modelo de sistema de apoio à decisão em vendas e sua aplicação. O levantamento sobre o perfil das vendas no mercado corporativo - de empresas-para-empresas, as técnicas de vendas, informações necessárias para a realização de uma venda eficiente, tal qual o controle das ações e resultados dos vendedores com a ajuda de relatórios, tudo isso aliado às tecnologias de data warehouse, data mart, OLAP foram essenciais na elaboração de uma proposta de modelo genérico e sua implantação. Esse modelo genérico foi aplicado levando-se em conta uma editora de listas e guias telefônicos hipotética, e foi construído buscando-se suprir os profissionais de vendas com informações que poderão melhorar a efetividade de suas vendas e dar-lhes maior conhecimento sobre seus produtos, clientes, usuários de listas e o mercado como um todo, além de suprir os gerentes de uma ferramenta rápida e confiável de auxílio à análise e coordenação dos esforços de vendas. A possibilidade de visualização rápida, confiável e personalizada das diversas informações permitidas por esse sistema, tal qual o êxito em responder às perguntas de pesquisas apresentadas no trabalho, comprova que essa aplicação poderá ser útil à empresa e em específico aos profissionais de vendas e gerentes tomadores de decisão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As primeiras agências reguladoras foram criadas a partir da segunda metade dos anos 1990, e a mais recente delas, em 2005. Com as agências surgiram também os atores privados regulados, os usuários e consumidores, e uma nova forma de interação entre os Poderes Executivo, Legislativo e Judiciário. Esses atores participam e dão forma ao processo de aprendizagem institucional das agências. Passado o período de criação e após quase duas décadas de existência, é necessária uma visão crítica sobre as agências. Propõe-se, então, um método de avaliação regulatória a partir de três variáveis que serão decompostas em diversas subvariáveis (quesitos a serem respondidos objetivamente). A primeira variável, institucionalização, mede as regras aplicáveis à própria agência: características dos mandatos dos dirigentes, autonomia decisória, autonomia financeira e de gestão de pessoal. A segunda, procedimentalização, ocupa-se do processo de tomada de decisão da agência e de sua transparência. Ambas as variáveis procuram medir as agências do ponto de vista formal, a partir de normas aplicáveis (leis, decretos, resoluções, portarias etc.), e pela prática regulatória, com base nos fatos ocorridos demonstrados por meio de documentos oficiais (decretos de nomeação, decisões, relatórios de atividade das próprias agências etc.). A última variável, judicialização, aponta as várias vezes em que a decisão administrativa muda de status e o nível de confirmação dessas decisões pelo Poder Judiciário. O modelo teórico de avaliação das agências ora apresentado é aplicado e testado em três setores que são submetidos à regulação econômica e contam com forte presença de atores sociais e empresa estatal federal. Assim, as agências analisadas foram: Agência Nacional de Energia Elétrica ANEEL, Agência Nacional de Telecomunicações ANATEL e Agência Nacional de Aviação Civil ANAC. Em termos gerais, não é possível garantir a existência de um isoformismo entre essas agências, nem mesmo entre agências criadas em momentos diferentes e por presidentes distintos. Também não foi possível demonstrar que a interferência política seja uma marca de um único governo. A ANATEL, a melhor avaliada das três agências, destaca-se pelo rigor de suas normas que seu processo decisório reflete. A ANEEL e a ANAC tiveram uma avaliação mediana já que apresentaram avaliação sofrível quanto ao processo, mas mostraram ter instituições (regras) um pouco melhores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As Organizações chamadas de Clubes Sócioesportivos mantém um modelo de administração que as caracteriza, que é a gestão realizada por voluntários e apoiada por gestores profissionais. A literatura aponta que a estrutura organizacional de entidades esportivas é peculiar, especialmente em clubes de futebol, onde persiste a fronteira entre os gestores voluntários que representam o poder executivo e legislativo e os gestores profissionais que são os que controlam e executam o planejamento financeiro e de atividades. No entanto são escassos estudos voltados a Clubes Sócioesportivos. O objetivo do presente estudo foi de identificar, descrever e comparar aspectos do processo de gestão da área de esportes de Clubes Sócioesportivos e analisa-los à luz de teorias e modelos administrativos. A pesquisa teve abordagem qualitativa, sendo realizado estudo de campo junto a seis clubes sócioesportivos da cidade de São Paulo. Para tanto, foram construídos e aplicados dois instrumentos: questionário e entrevista semiestruturada junto aos gestores de esporte das entidades. As informações obtidas foram analisadas comparativamente entre as entidades. Verificou-se que os Clubes utilizam modelos administrativos tradicionais com desenhos organizacionais. O planejamento destas organizações é baseado estritamente no orçamento anual, não havendo um planejamento plurianual ou estratégico. A tomada de decisão tem como alicerce a experiência pessoal do gestor voluntário, apoiada na vivência do gestor profissional. Não foram encontradas técnicas apuradas de tomada de decisão. As decisões mais importantes quanto a administração do Clube mantém um rito de preocupação com as responsabilidades. Os recursos humanos são selecionados pelo gestor profissional com o aval do gestor voluntário mantendo uma linha de contratação coerente e que está voltada a atender as demandas do Clube. Conclui-se que os Clubes estudados apresentam poucos aspectos diferentes do tradicional nas suas administrações, mantém uma estrutura organizacional própria, e os processos de tomada de decisões na área de esportes são fortemente vinculados ao planejamento financeiro

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A inferência de estratégias ofensivas em esportes coletivos pode ser realizada a partir da análise dos padrões de jogo observados durante a disputa. Para que isso ocorra, há a necessidade da formalização de classes de comportamentos específicos para a modalidade de forma a discriminar perfis de jogo com base na identificação das ações mais recorrentes. No basquetebol as ações são encadeadas ao longo da posse de bola, sendo que os diferentes tipos de sequências de ações contêm características que os diferenciam e podem influenciar diretamente no desfecho do ataque. Nesse trabalho foi apresentada uma proposta contendo diferentes possibilidades de sequenciamento de dinâmicas ofensivas baseadas em um modelo teórico descrito na literatura. Os procedimentos de validação do sequenciamento de dinâmicas ofensivas e os testes de reprodutibilidade e objetividade realizados junto a técnicos de basquetebol apresentaram valores elevados demonstrando a consistência dos critérios para a elaboração de 27 tipos de concatenações dependentes (Qui-quadrado >0,78). Além disso, a estrutura desenvolvida foi concluída através da aplicação do constructo a jogos de basquetebol da liga profissional Americana (NBA) (28 partidas, dentre as quais 10 partidas do confronto entre Spurs x Thunder, 10 partidas referentes ao confronto entre Heat e Pacers e 8 partidas da disputa envolvendo Heat e Spurs, sendo analisados ambos os ataques em cada confronto, válidos pela temporada regular e na fase de playoffs). Os resultados gerados a partir da análise foram apresentados através de árvores de decisão e grafos de modo a facilitar a visualização dos comportamentos identificados. A árvore de decisão apresentou as ações na sequência exata em que ocorreram nas posses de bola, enquanto os grafos mostraram os encadeamentos mais recorrentes entre duas dinâmicas ofensivas. Assim ambas as técnicas se mostraram complementares e auxiliaram na observação e análise dos perfis de jogo de cada equipe e na realização de inferências acerca de sua estratégia ofensiva. A formalização dos tipos de sequenciamento de ações ofensivas pode auxiliar treinadores e profissionais do basquetebol no desenho de estratégias, análise dos padrões de suas equipes e adversários e estruturação de sessões de treinamento que considerem os comportamentos ofensivos de modo dinâmico e contextualizado dentro de um encadeamento lógico de ações de jogo

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A realização deste estudo propiciou analisar a aplicação dos instrumentos previstos na legislação brasileira levantada para a gestão dos recursos hídricos, por meio dos Comitês de Bacias Hidrográficas e municípios. Foram eleitos a cidade de Araraquara e o Comitê de Bacia Hidrográfica Tietê-Jacaré, como forma de apurar a aplicação dos instrumentos de gestão existentes nas Políticas Federal e Estadual Paulista de Recursos Hídricos, consubstanciadas nas leis 9.433/97 e 7.663/91, respectivamente. Tal escolha se deu uma vez que o referido município encontra-se, aparentemente, organizado dentro dos ditames existentes no ordenamento ambiental legal brasileiro e faz parte da competência territorial daquele comitê. Constatou-se que o CBH-TJ não realiza suas atividades de forma adequada, pois, além de estar estruturado em desacordo com os ditames na lei federal de recursos hídricos, ainda carece de recursos financeiros, técnicos e de tomada de decisão (por ainda não possuir o Plano de Bacia e Agência de Água). O Poder Executivo do Município de Araraquara, mesmo tendo uma situação ambiental relativamente controlada, não utiliza o comitê da forma preconizada nas políticas de recursos hídricos, pois sua participação nele é pouco efetiva, o que acaba influenciando negativamente seu modo de gestão administrativa municipal, tornando-o apenas local, em alguns aspectos, deixando em segundo plano o restante da bacia hidrográfica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objeto deste trabalho é a análise do aproveitamento múltiplo do reservatório de Barra Bonita, localizado na confluência entre os rios Piracicaba e Tietê, no estado de São Paulo e pertencente ao chamado sistema Tietê-Paraná. Será realizada a otimização da operação do reservatório, através de programação linear, com o objetivo de aumentar a geração de energia elétrica, através da maximização da vazão turbinada. Em seguida, a partir dos resultados da otimização da geração de energia, serão utilizadas técnicas de simulação computacional, para se obter índices de desempenho conhecidos como confiabilidade, resiliência e vulnerabilidade, além de outros fornecidos pelo próprio modelo de simulação a ser utilizado. Estes índices auxiliam a avaliação da freqüência, magnitude e duração dos possíveis conflitos existentes. Serão analisados os possíveis conflitos entre a navegação, o armazenamento no reservatório, a geração de energia e a ocorrência de enchentes na cidade de Barra Bonita, localizada a jusante da barragem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O cadastramento de peritos cíveis junto ao Poder Judiciário atualmente não é feito eletronicamente e o rol de profissionais não é divulgado pela internet, sendo necessário que os profissionais se cadastrem pessoalmente em cada fórum. Também não existe atualmente uma avaliação dos trabalhos periciais realizados, o que faz com que o resultado dos trabalhos periciais, ou seja, o laudo pericial tenha muitos defeitos e acabe por não ter a qualidade necessária para auxiliar o juiz em sua tomada de decisão. Após a realização de uma pesquisa com peritos sobre suas impressões quanto à forma de cadastramento atualmente utilizada, aplicou-se o método Analytic Hierarchy Process (AHP) para auxiliar na identificação do perfil dos profissionais que desejam modificações no sistema. Foram então feitas observações e sugestões para que este modelo atualmente utilizado seja modificado e possa assim atender aos princípios constitucionais da publicidade, eficiência e finalidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta resultados geoquímicos multielementares de sedimentos de corrente no estado de São Paulo, obtidos através do projeto institucional do Serviço Geológico do Brasil denominado \"Levantamento Geoquímico de Baixa Densidade no Brasil\". Dados analíticos de 1422 amostras de sedimento de corrente obtidos por ICP-MS (Inductively Coupled Plasma Mass Spectrometry), para 32 elementos químicos (Al, Ba, Be, Ca, Ce, Co, Cr, Cs, Cu, Fe, Ga, Hf, K, La, Mg, Mn, Mo, Nb, Ni, P, Pb, Rb, Sc, Sn, Sr, Th, Ti, U, V, Y, Zn e Zr), foram processadas e abordadas através da análise estatística uni e multivariada. Os resultados do tratamento dos dados através de técnicas estatísticas univariadas forneceram os valores de background geoquímico (teor de fundo) dos 32 elementos para todo estado de São Paulo. A análise georreferenciada das distribuições geoquímicas unielementares evidenciaram a compartimentação geológica da área. As duas principais províncias geológicas do estado de São Paulo, Bacia do Paraná e Complexo Cristalino, se destacam claramente na maioria das distribuições geoquímicas. Unidades geológicas de maior expressão, como a Formação Serra Geral e o Grupo Bauru também foram claramente destacadas. Outras feições geoquímicas indicaram possíveis áreas contaminadas e unidades geológicas não cartografadas. Os resultados da aplicação de métodos estatísticos multivariados aos dados geoquímicos com 24 variáveis (Al, Ba, Ce, Co, Cr, Cs, Cu, Fe, Ga, La, Mn, Nb, Ni, Pb, Rb, Sc, Sr, Th, Ti, U, V, Y, Zn e Zr) permitiram definir as principais assinaturas e associações geoquímicas existentes em todo estado de São Paulo e correlacioná-las aos principais domínios litológicos. A análise de agrupamentos em modo Q forneceu oito grupos de amostras geoquimicamente correlacionáveis, que georreferenciadas reproduziram os principais compartimentos geológicos do estado: Complexo Cristalino, Grupos Itararé e Passa Dois, Formação Serra Geral e Grupos Bauru e Caiuá. A análise discriminante multigrupos comprovou, estatisticamente, a classificação dos grupos formados pela análise de agrupamentos e forneceu as principais variáveis discriminantes: Fe, Co, Sc, V e Cu. A análise de componentes principais, abordada em conjunto com a análise fatorial pelo método de rotação varimax, forneceram os principais fatores multivariados e suas respectivas associações elementares. O georreferenciamento dos valores de escores fatoriais multivariados delimitaram as áreas onde as associações elementares ocorrem e forneceram mapas multivariados para todo o estado. Por fim, conclui-se que os métodos estatísticos aplicados são indispensáveis no tratamento, apresentação e interpretação de dados geoquímicos. Ademais, com base em uma visão integrada dos resultados obtidos, este trabalho recomenda: (1) a execução dos levantamentos geoquímicos de baixa densidade em todo país em caráter de prioridade, pois são altamente eficazes na definição de backgrounds regionais e delimitação de províncias geoquímicas com interesse metalogenético e ambiental; (2) a execução do mapeamento geológico contínuo em escala adequada (maiores que 1:100.000) em áreas que apontam para possíveis existências de unidades não cartografadas nos mapas geológicos atuais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde a década de 1980 diversos autores apresentaram correlações entre provas de carga estática e ensaios de carregamento dinâmico em estacas. Para uma boa correlação é fundamental que os testes sejam bem executados e que atinjam a ruptura segundo algum critério, como o de Davisson, por exemplo, além de levar em conta o intervalo de tempo entre a execução da prova de carga estática e do ensaio dinâmico, face ao efeito \"set up\". Após a realização do ensaio dinâmico realiza-se a análise CAPWAP que permite a determinação da distribuição do atrito lateral em profundidade, a carga de ponta e outros parâmetros dos solos tais como quakes e damping. A análise CAPWAP é realizada por tentativas através do procedimento \"signal matching\", isto é, o melhor ajuste entre os sinais de força medido pelos sensores e o calculado. É relativamente fácil mostrar que a mesma solução pode ser obtida através de dados de entrada diferentes. Isso significa que apesar de apresentarem cargas mobilizadas próximas o formato da curva da simulação de prova de carga estática, obtida pelo CAPWAP, assim como a distribuição do atrito lateral, podem ser diferentes, mesmo que as análises apresentem \"match quality\" (MQWU) satisfatórios. Uma forma de corrigir o formato da curva simulada do CAPWAP, assim como a distribuição do atrito lateral, é através da comparação com provas de carga estática (PCE). A sobreposição das duas curvas, a simulada e a \"real\", permite a determinação do quake do fuste através do trecho inicial da curva carga-recalque da prova de carga estática, que por sua vez permite uma melhor definição da distribuição do atrito lateral e da reação de ponta. Neste contexto surge o conceito de \"match quality de recalques\" (MQR). Quando a PCE não está disponível, propõe-se efetuar um carregamento estático utilizando o peso próprio do martelo do bate-estaca (CEPM). Mostra-se, através de dois casos de obra, em que estavam disponíveis ensaios de carregamento dinâmico e PCEs, que esse procedimento permite obter uma melhor solução do ponto de vista físico, isto é consistente com as características do subsolo e com a curva carga-recalque da PCE, e não apenas matemático, através da avaliação do \"match quality\" (MQWU).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.