898 resultados para MÉTODOS DE TRABALHO
Resumo:
As organizações se encontram em meio a uma série de transformações na sociedade e no mundo empresarial de natureza estrutural e tecnológica. Essas mudanças relacionadas ao processo de globalização, cada vez mais constantes na vida organizacional implicam as organizações uma postura cada vez mais responsável tanto a nível organizacional quanto social. Em se tratando de adaptações organizacionais, o funcionário poderá ser mais exigido. Se a empresa precisa estar mais competitiva para continuar no mercado e resistir, há expectativa de uma maior capacidade produtiva. Nesse contexto de pressões constantes a todos da organização, a Qualidade de Vida no Trabalho passa ser destaque como um diferencial competitivo para organizações, que programam e usufruem de seus resultados. Porém, não se pode deixar de pensar que além de produzir, as empresas devem estar preocupadas no seu papel perante a sociedade, nesse item, entra a Responsabilidade Social Empresarial. As empresas são cobradas tanto como estas podem influir na degradação dos recursos naturais, como na sua ação de fazer algo a mais que contribua para sociedade. Esse assunto vem se expandindo devido à sua importante aplicabilidade e atualmente tem pautado algumas discussões no campo organizacional. Com base neste conceito, este estudo buscou analisar as possíveis relações existentes entre os programas de Qualidade de Vida no Trabalho QVT e Responsabilidade Social Empresarial - RSE considerando a satisfação de QVT dos indivíduos que participam dos programas de RSE nas empresas que adotam ambos os programas QVT e RSE. Optou-se em adotar um estudo de caso em associação com métodos quantitativos para aplicação do instrumento BPSO (96) e métodos qualitativos, entrevistas e observação do pesquisador. Concluiu-se que os Envolvidos em programas de RSE não apresentaram maior satisfação de QVT em relação ao grupo Não Participa . O fato da participação do funcionário em RSE não deve ser considerado como um indicador de QVT. O que pode ter influenciado nos resultados é o perfil da amostra, que se mostrou muito heterogêneo, onde estão presentes vários tipo de pessoas e cada um com uma expectativa diferente do empenho da empresa com sua Qualidade de Vida no Trabalho.
Resumo:
A utilização dos conceitos Lean de produção na logística é tida como um diferencial na criação de vantagem competitiva pelas empresas, inclusive por operadores logísticos. Na indústria automotiva, a prática de tais conceitos é utilizada de forma ampla. O conceito de se ter um sistema enxuto de fornecimento pode levar ao simples entendimento de restrição de fornecedores e redução dos níveis de estoque através do aumento de freqüência das entregas, contudo esta é uma visão distorcida quando falamos de sistema enxuto, pois o sistema enxuto trata da análise de eliminação de desperdício de todo o sistema envolvido em um processo. O objetivo desta dissertação foi de realizar um estudo exploratório sobre os aspectos determinantes do sucesso na implantação do conceito de logística lean e sua aplicação na logística de distribuição de peças de uma empresa automotiva, através de um operador logístico. A metodologia utilizada para a neste trabalho é uma revisão bibliográfica e a imersão em um ambiente de operação logística terceirizada em um depósito de uma indústria automotiva de distribuição de peças à rede autorizada, onde o autor atua como agente para melhoria dos processos operacionais in loco. Como resultado foi observado um aumento na produtividade das operações, bem como uma redução de área utilizada e do tempo de resposta dos pedidos colocados.(AU)
Resumo:
A utilização dos conceitos Lean de produção na logística é tida como um diferencial na criação de vantagem competitiva pelas empresas, inclusive por operadores logísticos. Na indústria automotiva, a prática de tais conceitos é utilizada de forma ampla. O conceito de se ter um sistema enxuto de fornecimento pode levar ao simples entendimento de restrição de fornecedores e redução dos níveis de estoque através do aumento de freqüência das entregas, contudo esta é uma visão distorcida quando falamos de sistema enxuto, pois o sistema enxuto trata da análise de eliminação de desperdício de todo o sistema envolvido em um processo. O objetivo desta dissertação foi de realizar um estudo exploratório sobre os aspectos determinantes do sucesso na implantação do conceito de logística lean e sua aplicação na logística de distribuição de peças de uma empresa automotiva, através de um operador logístico. A metodologia utilizada para a neste trabalho é uma revisão bibliográfica e a imersão em um ambiente de operação logística terceirizada em um depósito de uma indústria automotiva de distribuição de peças à rede autorizada, onde o autor atua como agente para melhoria dos processos operacionais in loco. Como resultado foi observado um aumento na produtividade das operações, bem como uma redução de área utilizada e do tempo de resposta dos pedidos colocados.(AU)
Resumo:
Este trabalho dedica-se a examinar as principais mudanças que ocorrem no processo de construção da notícia nos telejornais regionais paulistas na última década. Objetivamos o estudo das tecnologias digitais conectadas e as consequentes alterações no trabalho dos profissionais envolvidos jornalistas, técnicos e engenheiros, a fim de entender os novos formatos aplicados na transmissão de conteúdo contando com o auxílio da internet. Para tanto, realizamos um estudo comparativo com duas emissoras da Região Metropolitana do Vale do Paraíba: TV Vanguarda, afiliada a Rede Globo, e a Tv Band Vale filiada ao Grupo Bandeirantes, que passaram por transformações em todas as dimensões da difusão de notícias com a digitalização dos seus processos tecnológicos e investimentos no ambiente virtual. Por meio da técnica de pesquisa observação participante chegou-se a conclusão de que a tecnologia é uma realidade adotada nas emissoras contribuindo para agilizar os trabalhos nas redações e aproximar o público dos telejornais.
Resumo:
Este trabalho dedica-se a examinar as principais mudanças que ocorrem no processo de construção da notícia nos telejornais regionais paulistas na última década. Objetivamos o estudo das tecnologias digitais conectadas e as consequentes alterações no trabalho dos profissionais envolvidos jornalistas, técnicos e engenheiros, a fim de entender os novos formatos aplicados na transmissão de conteúdo contando com o auxílio da internet. Para tanto, realizamos um estudo comparativo com duas emissoras da Região Metropolitana do Vale do Paraíba: TV Vanguarda, afiliada a Rede Globo, e a Tv Band Vale filiada ao Grupo Bandeirantes, que passaram por transformações em todas as dimensões da difusão de notícias com a digitalização dos seus processos tecnológicos e investimentos no ambiente virtual. Por meio da técnica de pesquisa observação participante chegou-se a conclusão de que a tecnologia é uma realidade adotada nas emissoras contribuindo para agilizar os trabalhos nas redações e aproximar o público dos telejornais.
Resumo:
A análise de dados de sobrevivência tem sido tradicionalmente baseada no modelo de regressão de Cox (COX, 1972). No entanto, a suposição de taxas de falha proporcionais assumida para esse modelo pode não ser atendida em diversas situações práticas. Essa restrição do modelo de Cox tem gerado interesse em abordagens alternativas, dentre elas os modelos dinâmicos que permitem efeito das covariáveis variando no tempo. Neste trabalho, foram revisados os principais modelos de sobrevivência dinâmicos com estrutura aditiva e multiplicativa nos contextos não paramétrico e semiparamétrico. Métodos gráficos baseados em resíduos foram apresentados com a finalidade de avaliar a qualidade de ajuste desses modelos. Uma versão tempo-dependente da área sob a curva ROC, denotada por AUC(t), foi proposta com a finalidade de avaliar e comparar a qualidade de predição entre modelos de sobrevivência com estruturas aditiva e multiplicativa. O desempenho da AUC(t) foi avaliado por meio de um estudo de simulação. Dados de três estudos descritos na literatura foram também analisados para ilustrar ou complementar os cenários que foram considerados no estudo de simulação. De modo geral, os resultados obtidos indicaram que os métodos gráficos apresentados para avaliar a adequação dos modelos em conjunto com a AUC(t) se constituem em um conjunto de ferramentas estatísticas úteis para o próposito de avaliar modelos de sobrevivência dinâmicos nos contextos não paramétrico e semiparamétrico. Além disso, a aplicação desse conjunto de ferramentas em alguns conjuntos de dados evidenciou que se, por um lado, os modelos dinâmicos são atrativos por permitirem covariáveis tempo-dependentes, por outro lado podem não ser apropriados para todos os conjuntos de dados, tendo em vista que estimação pode apresentar restrições para alguns deles.
Resumo:
Este trabalho teve como objetivo avaliar diversos métodos de detecção e recuperação de cistos de Giardia spp. e de oocistos de Cryptosporidium parvum em resíduos gerados no tratamento de águas de abastecimento com turbidez elevada tendo como padrão o Método 1623.1 da USEPA (2012 ). Para tanto, ensaios utilizando aparelho Jarteste (coagulação, floculação, decantação e filtração ) foram realizados utilizando o coagulante cloreto de polialumínio - PAC. Em todos os métodos avaliados foi utilizada a técnica de purificação por separação imunomagnética - IMS. A adaptação do método floculação em carbonato de cálcio FCCa elaborado por Vesey et al. (1993) e adaptado por Feng et al. (2011), repercutiu nos melhores resultados para a amostra de resíduo sedimentado, com recuperações de 68 ± 17 % para oocisto de C. parvum e de 42 ± 7 % para cisto de Giardia spp. Entretanto, as recuperações para a amostra de água de lavagem dos filtros - ALF foram inferiores à 1 %, não sendo possível determinar um método adequado. A presença dos patógenos indica que o reuso da ALF em ETA convencionais ou o descarte em mananciais sem um tratamento prévio, pode representar problemas de contaminação. A adaptação dos métodos de Boni de Oliveira (2012) e Keegan et al. (2008), também repercutiram em porcentagens de recuperação expressivas para a amostra de resíduo sedimentado, sendo de: 41 ± 35 % para oocisto de C. parvum e 11 ± 70 % para cisto de Giardia spp., e 38 ± 26 % para oocisto de C. parvum e 26 ± 13 % para cisto de Giardia spp., respectivamente. A análise estatística não resultou em diferença significativa entre estes dois métodos, entretanto, as elevadas recuperações indicam que estes métodos podem ser melhor avaliados em pesquisas futuras.
Resumo:
Técnicas analíticas empregadas para a quantificação do teor de lignina em plantas forrageiras, atualmente em uso, são questionáveis quanto às suas acurácias. O método lignina detergente ácido (LDA), que é um dos métodos mais utilizado em Ciência Animal e Agronomia, apresenta algumas falhas, particularmente devido à parcial solubilização da lignina durante a preparação da fibra em detergente ácido (FDA). A lignina Klason (LK), outro método muito usado, apresenta o inconveniente de mensurar a proteína da parede celular como sendo lignina. Em ambos os procedimentos recomenda-se também mensurar cinzas nos resíduos de lignina. A quantificação da concentração de lignina pelo método espectrofotométrico lignina brometo de acetila (LBA) vem ganhando interesse de pesquisadores no Brasil e no exterior. Nesta metodologia, a lignina da planta contida na preparação parede celular (PC) é solubilizada numa solução a 25% de brometo de acetila em ácido acético e a absorbância mensurada é com luz UV a 280 nm. O valor da absorbância é inserido numa equação de regressão e a concentração de lignina é obtida. Para que esta técnica analítica seja mais aceita pelos pesquisadores, ela deve ser, obviamente, convincente e atrativa. O presente trabalho analisou alguns parâmetros relacionados à LBA em 7 gramíneas e 6 leguminosas, em dois estádios de maturidade. Dentre as diferentes temperaturas de pré-secagem, os resultados indicaram que os procedimentos de 55°C com ventilação e liofilização podem ser utilizados com a mesma eficácia. As temperaturas de 55°C sem ventilação e 80°C sem ventilação não são recomendadas, pois aumentaram os valores de FDA e LDA, possivelmente devido ao surgimento de artefatos de técnica como os compostos de Maillard. No método LBA os valores menores das amostras de leguminosas chamaram a atenção e colocaram em questão se a lignina destas plantas seria menos solúvel no reagente brometo de acetila. Dentre algumas alterações na metodologia da técnica LBA, a utilização do moinho de bolas (para diminuir o tamanho particular) nas amostras de PC não mostrou efeito; a hipótese era melhorar a solubilização da lignina usando partículas menores. O uso de um ultrasonicador, que aumenta a vibração das moléculas e assim, facilitaria a solubilização da lignina no reagente brometo de acetila, melhorou a solubilização da lignina em cerca de 10%, tanto nas gramíneas como nas leguminosas. Foi acoplado um ensaio biológico como referência, a degradabilidade in vitro da matéria seca (DIVMS); e como a lignina está intimamente associada à estrutura fibrosa da parede celular, também foi feito um ensaio de degradabilidade in vitro da fibra em detergente neutro (DIVFDN). Os resultados confirmaram o efeito da maturidade, reduzindo a degradabilidade nas plantas mais maduras, e que o teor de lignina de leguminosas é realmente inferior ao de gramíneas. Os resultados de degradabilidade apresentaram coeficientes de correlação mais elevados com o método LBA, quando foi empregada a técnica do ultrasom; o método LK mostrou os menores coeficientes. Também testou-se, com sucesso, a utilização da FDN, como preparação fibrosa, ao invés de PC. A razão é simples: enquanto que a FDN é amplamente conhecida, a preparação PC não o é. Inquestionável que esta manobra facilitará substancialmente a divulgação desse método, tornando-a mais aceitável pela comunidade científica
Resumo:
Neste trabalho são feitas comparações entre os principais sinais horizontais de trânsito (Parada Obrigatória, Faixa de Pedestre e Lombada) padronizados pelo Código de Trânsito Brasileiro (CTB), com modelos alternativos que sofreram variações na forma e/ou cor, alguns deles já usados em algumas cidades brasileiras, com o objetivo de identificar se essas alterações melhoram ou não a percepção do sinal (impacto visual). Para isso são utilizados dois métodos da Psicofísica. Numa primeira etapa a análise é feita utilizando o Método de Comparação aos Pares, para um grupo de quatro estímulos para cada sinal estudado. Em seguida, aplicando o Método de Estimativa das Categorias, foi avaliado o impacto visual do sinal horizontal de Parada Obrigatória quanto à presença ou ausência de orla externa. Por fim, também pelo Método de Comparação aos Pares, foi avaliado o impacto visual causado pelo uso conjugado de sinais horizontais em cruzamentos não semaforizados. Foram estudadas as combinações entre os sinais de parada obrigatória, faixa de pedestres e faixa de retenção. Os resultados obtidos permitem inferir as seguintes conclusões: as alterações na forma e cor propostas para os sinais de parada obrigatória e faixa de pedestres causam maior impacto visual quando comparadas ao modelo padronizado pelo CTB mas, no caso das lombadas, a sinalização padrão mostrou-se ser mais perceptível; quanto a presença ou não da orla externa no sinal de parada obrigatória, esta demonstrou ser positiva; o uso conjugado dos sinais de parada obrigatória, faixa de pedestres e faixa de retenção é a combinação que mais desperta a atenção dos usuários.
Avaliação de métodos numéricos de análise linear de estabilidade para perfis de aço formados a frio.
Resumo:
Para o projeto de estruturas com perfis de aço formados a frio, é fundamental a compreensão dos fenômenos da instabilidade local e global, uma vez que estes apresentam alta esbeltez e baixa rigidez à torção. A determinação do carregamento crítico e a identificação do modo de instabilidade contribuem para o entendimento do comportamento dessas estruturas. Este trabalho avalia três metodologias para a análise linear de estabilidade de perfis de aço formados a frio isolados, com o objetivo de determinar os carregamentos críticos elásticos de bifurcação e os modos de instabilidade associados. Estritamente, analisa-se perfis de seção U enrijecido e Z enrijecido isolados, de diversos comprimentos e diferentes condições de vinculação e carregamento. Determinam-se os carregamentos críticos elásticos de bifurcação e os modos de instabilidade globais e locais por meio de: (i) análise com o Método das Faixas Finitas (MFF), através do uso do programa computacional CUFSM; (ii) análise com elementos finitos de barra baseados na Teoria Generalizada de Vigas (MEF-GBT), via uso do programa GBTUL; e (iii) análise com elementos finitos de casca (MEF-cascas) por meio do uso do programa ABAQUS. Algumas restrições e ressalvas com relação ao uso do MFF são apresentadas, assim como limitações da Teoria Generalizada de Viga e precauções a serem tomadas nos modelos de cascas. Analisa-se também a influência do grau de discretização da seção transversal. No entanto, não é feita avaliação em relação aos procedimentos normativos e tampouco análises não lineares, considerando as imperfeições geométricas iniciais, tensões residuais e o comportamento elastoplástico do material.
Resumo:
Uma compreensão aprofundada da dinâmica de competição portuária é particularmente importante dado o contexto atual do setor, que orienta à outorga de novos portos e terminais no Brasil, à luz da Nova Lei dos Portos, Lei Nº 12.815 de 2013. A avaliação dos reais impactos decorrentes do aumento de capacidade portuária em cada região será atividade fundamental para que, por um lado, o poder público oriente a alocação efetiva de recursos, sem prejudicar a operação dos complexos existentes; e para que a iniciativa privada, por sua vez, possa compreender os impactos dos possíveis novos empreendimentos sobre as suas operações e delinear estratégias comerciais compatíveis com o novo cenário competitivo. A partir de extensa revisão bibliográfica e da aplicação de técnicas a casos específicos, o presente trabalho detalha a dinâmica competitiva entre terminais de contêineres e avalia criticamente seis métodos utilizados para identificar a existência de competição: correlação de market share, comparação de taxas de ocupação, sobreposição de escalas marítimas, comparação de custos logísticos terrestres, representatividade da região de influência contestável e existência de poder de mercado sobre a região de influência. Dos seis métodos analisados, dois apresentam conclusões fulminantes para a questão, embora sua aplicação demande grande volume de informações; um é assertivo em condições normais de distribuição geográfica de cargas; dois apresentam condições necessárias, porém não suficientes para a identificação de competição; e um deve ser aplicado com ressalvas, uma vez que pode levar a conclusões equivocadas.
Resumo:
No presente trabalho foram avaliados processos alternativos de dessalinização visando a recuperação e reuso da água contida em salmouras concentradas, sendo o processo de cristalização assistida por destilação por membranas (MDC) investigado com profundidade. Foi desenvolvido um modelo diferencial para o processo de destilação por membranas por contato direto (DCMD), contemplando métodos termodinâmicos rigorosos para sistemas aquosos de eletrólitos fortes, bem como mecanismos de transferência de calor e massa e efeitos de polarização de temperatura e concentração característicos deste processo de separação. Com base em simulações realizadas a partir do modelo matemático assim desenvolvido, foram investigados os principais parâmetros que influenciam o projeto de um módulo de membranas para DCMD. O modelo foi posteriormente estendido com equações de balanço de massa e energia adicionais para incluir a operação de cristalização e desta forma representar o processo de MDC. De posse dos resultados das simulações e do modelo estendido, foi desenvolvido um método hierárquico para o projeto de processos de MDC, com o objetivo de conferir características de rastreabilidade e repetibilidade a esta atividade. Ainda a partir do modelo MDC foram discutidos aspectos importantes em MDC como a possibilidade de nucleação e crescimento de cristais sobre a superfície das membranas, bem como o comportamento do processo com sais com diferentes características de solubilidade e largura da zona metaestável. Verificou-se que para sais cuja solubilidade varia muito pouco com a temperatura e que possuem zona metaestável com pequena largura, caso do NaCl, a operação com resfriamento no cristalizador não é viável pois aumenta excessivamente o consumo energético do processo, sendo nesses casos preferível a operação \"isotérmica\" - sem resfriamento no cristalizador - e o convívio com a possibilidade de nucleação no interior do módulo. No extremo oposto, observou-se que para sais com grande variabilidade da solubilidade com a temperatura, um pequeno resfriamento no cristalizador é suficiente para garantir condições de subsaturação no interior do módulo, sem grande ônus energético para o processo. No caso de sais com pequena variabilidade da solubilidade com a temperatura, mas com largura da zona metaestável elevada, existe certo ônus energético para a operação com resfriamento do cristalizador, porém não tão acentuado como no caso de sais com zona metaestável estreita. Foi proposto um fluxograma alternativo para o processo de MDC, onde foi introduzido um circuito de pré-concentração da alimentação antes do circuito de cristalização, para o caso de alimentação com soluções muito diluídas. Este esquema proporcionou um aumento do fluxo permeado global do processo e consequentemente uma redução na área total de membrana requerida. Verificou-se que através do processo com préconcentração da alimentação de 5% até 10% em massa - no caso de dessalinização de uma solução de NaCl - foi possível reduzir-se a área total da membrana em 27,1% e o consumo energético específico do processo em 10,6%, quando comparado ao processo sem pré-concentração. Foram desenvolvidas ferramentas úteis para o projeto de processos de dessalinização por MDC em escala industrial.
Resumo:
Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.
Resumo:
A condutividade hidráulica (K) é um dos parâmetros controladores da magnitude da velocidade da água subterrânea, e consequentemente, é um dos mais importantes parâmetros que afetam o fluxo subterrâneo e o transporte de solutos, sendo de suma importância o conhecimento da distribuição de K. Esse trabalho visa estimar valores de condutividade hidráulica em duas áreas distintas, uma no Sistema Aquífero Guarani (SAG) e outra no Sistema Aquífero Bauru (SAB) por meio de três técnicas geoestatísticas: krigagem ordinária, cokrigagem e simulação condicional por bandas rotativas. Para aumentar a base de dados de valores de K, há um tratamento estatístico dos dados conhecidos. O método de interpolação matemática (krigagem ordinária) e o estocástico (simulação condicional por bandas rotativas) são aplicados para estimar os valores de K diretamente, enquanto que os métodos de krigagem ordinária combinada com regressão linear e cokrigagem permitem incorporar valores de capacidade específica (Q/s) como variável secundária. Adicionalmente, a cada método geoestatístico foi aplicada a técnica de desagrupamento por célula para comparar a sua capacidade de melhorar a performance dos métodos, o que pode ser avaliado por meio da validação cruzada. Os resultados dessas abordagens geoestatísticas indicam que os métodos de simulação condicional por bandas rotativas com a técnica de desagrupamento e de krigagem ordinária combinada com regressão linear sem a técnica de desagrupamento são os mais adequados para as áreas do SAG (rho=0.55) e do SAB (rho=0.44), respectivamente. O tratamento estatístico e a técnica de desagrupamento usados nesse trabalho revelaram-se úteis ferramentas auxiliares para os métodos geoestatísticos.
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.