990 resultados para Combinações (Matematica)
Resumo:
Nesta dissertação é apresentada uma modelagem analítica para o processo evolucionário formulado pela Teoria da Evolução por Endossimbiose representado através de uma sucessão de estágios envolvendo diferentes interações ecológicas e metábolicas entre populações de bactérias considerando tanto a dinâmica populacional como os processos produtivos dessas populações. Para tal abordagem é feito uso do sistema de equações diferenciais conhecido como sistema de Volterra-Hamilton bem como de determinados conceitos geométricos envolvendo a Teoria KCC e a Geometria Projetiva. Os principais cálculos foram realizados pelo pacote de programação algébrica FINSLER, aplicado sobre o MAPLE.
Resumo:
O fator de compressibilidade (Z) de gás natural é utilizado em vários cálculos na engenharia de petróleo (avaliação de formações, perda de carga em tubulações, gradiente de pressão em poços de gás, cálculos de balanço de massa, medição de gás, compressão e processamento de gás). As fontes mais comuns de valores de Z são medições experimentais, caras e demoradas. Essa propriedade também é estimada por correlações empíricas, modelos baseados no princípio dos estados correspondentes ou equações de estado (EOS). Foram avaliadas as capacidades das EOS de Soave-Redlich-Kwong (SRK), Peng-Robinson (PR), Patel-Teja (PT), Patel-Teja-Valderrama (PTV), Schmidt-Wenzel (SW), Lawal-Lake-Silberberg (LLS) e AGA-8 para previsão desta propriedade em aproximadamente 2200 pontos de dados experimentais. Estes pontos foram divididos em quatro grupos: Grupo 1 (Presença de frações C7+, Grupo 2 (temperaturas inferiores a 258,15 K), Grupo 3 (pressões superiores a 10000 kPa) e Grupo 4 (pressões inferiores a 10000 kPa). Os cálculos utilizando as equações de estado sob diferentes esquemas de previsão de coeficientes binários de interação foram cuidadosamente investigados. Os resultados sugerem que a EOS AGA-8 apresenta os menores erros para pressões de até 70000 kPa. Entretanto, observou-se uma tendência de aumento nos desvios médios absolutos em função das concentrações de CO2 e H2S. As EOS PTV e a EOS SW são capazes de predizer o fator de compressibilidade (Z) com desvios médios absolutos entre os valores calculados e experimentais com precisão satisfatória para a maioria das aplicações, para uma variada faixa de temperatura e pressão. Este estudo também apresenta uma avaliação de 224 métodos de cálculo de Z onde foram utilizadas 8 correlações combinadas com 4 regras de mistura para estimativa de temperaturas e pressões pseudorreduzidas das amostras, junto com 7 métodos de caracterização das propriedades críticas da fração C7+, quando presente na composição do gás. Em função dos resultados são sugeridas, para diferentes tipos de sistemas, as melhores combinações de correlações com regras de mistura capazes de predizer fatores de compressibilidade (Z) com os menores erros absolutos médios relativos
Resumo:
A periodontite é um processo inflamatório crônico de origem bacteriana mediado por citocinas, em especial, interleucina-1 (IL1) e fator de necrose tumoral (TNFα). Polimorfismos genéticos de IL1 e TNFA têm sido associados com a variação de expressão dessas proteínas, o que poderia justificar as diferenças interindividuais de manifestação da doença. O objetivo do presente estudo foi investigar possíveis associações entre os genes IL1B, IL1RN e TNFA e a suscetibilidade à periodontite agressiva e à periodontite crônica severa. Foram selecionados 145 pacientes do Estado do Rio de Janeiro, 43 com periodontite agressiva (PAgr) (33,1 4,8 anos), 52 com periodontite crônica severa (PCr) (50,6 5,8 anos) e 50 controles (40,1 7,8 anos). Os DNAs genômicos dos integrantes dos grupos PAgr, PCr e controle foram obtidos através da coleta de células epiteliais bucais raspadas da parte interna da bochecha com cotonete. Os SNPs IL1B -511C>T, IL1B +3954C>T e TNFA -1031T>C foram analisados pela técnica de PCR-RFLP, utilizando as enzimas de restrição Ava I Taq I e Bpi I, respectivamente. O polimorfismo de número variável de repetições in tandem (VNTR) no intron 2 do gene IL1RN foi feita pela análise direta dos amplicons. Todos os polimorfismos foram analisados por eletroforese em gel de poliacrilamida 8%. As frequências alélica e genotípica do polimorfismo IL1B +3954C>T no grupo PCr foram significativamente diferentes das observadas no grupo controle (p=0,003 e p=0,041, respectivamente). A freqüência do alelo A2 do polimorfismo IL1RN VNTR intron2 no grupo PAgr foi significativamente maior do que no grupo controle (p=0,035). Não houve associação entre os polimorfismos IL1B -511C>T e TNFA -1031T>C e as periodontites agressiva e crônica. A presença dos alelos 2 nos genótipos combinados de IL1RN VNTR intron2 e IL1B +3954C>T no grupo PCr foi significativamente maior quando comparada ao grupo controle (p=0,045). Entretanto, não se observou associação entre as combinações genotípicas IL1B -511C>T / IL1B +3954C>T e IL1RN VNTR / IL1B -511C>T e a predisposição à doença periodontal. De acordo com os nossos resultados podemos sugerir que, para a população estudada, o polimorfismo IL1B +3954C>T interfere no desenvolvimento da periodontite crônica, enquanto a presença do alelo A2 do polimorfismo IL1RN VNTR intron2 pode ser considerado como indicador de risco para a periodontite agressiva. O presente estudo também nos permite sugerir que a ausência de homozigose dos alelos 1 nos genótipos combinados de IL1RN VNTR intron2 e IL1B +3954C>T pode representar maior suscetibilidade à periodontite crônica severa.
Resumo:
Este trabalho apresenta um estudo teórico e numérico sobre os erros que ocorrem nos cálculos de gradientes em malhas não estruturadas constituídas pelo diagrama de Voronoi, malhas estas, formadas também pela triangulação de Delaunay. As malhas adotadas, no trabalho, foram as malhas cartesianas e as malhas triangulares, esta última é gerada pela divisão de um quadrado em dois ou quatro triângulos iguais. Para tal análise, adotamos a escolha de três metodologias distintas para o cálculo dos gradientes: método de Green Gauss, método do Mínimo Resíduo Quadrático e método da Média do Gradiente Projetado Corrigido. O texto se baseia em dois enfoques principais: mostrar que as equações de erros dadas pelos gradientes podem ser semelhantes, porém com sinais opostos, para pontos de cálculos em volumes vizinhos e que a ordem do erro das equações analíticas pode ser melhorada em malhas uniformes quando comparada as não uniformes, nos casos unidimensionais, e quando analisada na face de tais volumes vizinhos nos casos bidimensionais.
Resumo:
O câncer de colo do útero é o segundo carcinoma mais frequente em mulheres no mundo e um dos cânceres femininos mais incidentes no Brasil. Em lesões pré-malignas e malignas do colo uterino, a proteína p16INK4a, que participa do controle do ciclo celular, apresenta um aumento considerável de sua expressão, devido possivelmente à presença de oncoproteínas do papilomavírus humano (HPV). Dois polimorfismos no gene p16INK4a, p16 500C>G e p16 540C>T, estão localizados na região 3 não traduzida (3UTR), que está envolvida na regulação pós-transcricional da expressão gênica. O objetivo deste estudo foi avaliar possíveis associações entre os polimorfismos p16 500C>G e p16 540C>T e o desenvolvimento de neoplasias cervicais e/ou a severidade das lesões, considerando os níveis de expressão da proteína p16INK4a nas lesões cervicais e certos fatores de risco clássicos para o câncer cervical, incluindo a infecção pelo HPV. Para isso, foram selecionadas 567 mulheres residentes no Rio de Janeiro, 319 com citologia cervical alterada (grupo de casos) e 248 sem história prévia de alteração citológica do colo uterino (grupo de comparação). Amostras de sangue periférico de todas as participantes foram utilizadas na análise molecular dos polimorfismos p16 500C>G e p16 540C>T através da técnica de PCR-RFLP (reação em cadeia da polimerase - polimorfismo de comprimento de fragmento de restrição), usando as enzimas de restrição MspI e HaeIII, respectivamente. A expressão da proteína p16INK4a em 137 biópsias de mulheres pertencentes ao grupo de casos foi avaliada por imunohistoquímica. A detecção de DNA do HPV em células cervicais foi feita em todas as amostras do grupo de comparação e em 194 amostras do grupo de casos pela técnica de PCR, usando dois pares de oligonucleotídeos, MY09/MY11 e GP05+/GP06+. Os dois grupos de estudo se encontram em equilíbrio de Hardy-Weinberg. As distribuições genotípicas para p16 500C>G e p16 540C>T e as distribuições de combinações haplotípicas nos dois grupos não apresentaram diferenças significativas. A análise do subgrupo HSIL+câncer (casos com lesão intraepitelial de alto grau ou carcinoma invasivo) em comparação com o subgrupo LSIL (casos com lesão intraepitelial de baixo grau) revelou diferença significativa entre as distribuições das combinações haplotípicas (p = 0,036) e diferenças marginais entre as distribuições genotípicas para p16 500C>G (p = 0,071) e p16 540C>T (p = 0,051). O alelo p16 540G, em heterozigose ou homozigose (OR = 1,91, IC 95% = 1,08-3,37), e a combinação haplotípica p16 500C-540C 500G-540C (OR = 2,34, IC 95% = 1,202-4,555) mostraram-se associados com a severidade da lesões cervicais. Já o genótipo p16 540T/T (OR = 0,25, IC 95% = 0,08-0,79), e a combinação haplotípica p16 500C-540T 500C-540T (OR = 0,27, IC 95% = 0,088-0,827) exibiram papel protetor contra o desenvolvimento de lesões mais severas. As análises de interação entre os polimorfismos de p16INK4a e a expressão de p16 ou a infecção pelo HPV foram comprometidas pelo número reduzido de amostras analisadas. Não se observou qualquer interação entre os polimorfismos estudados e os fatores de risco clássicos para o câncer de colo uterino. Nossos resultados apontam para a importância dos polimorfismos do gene p16INK4a como marcadores de severidade da neoplasia cervical.
Resumo:
As análises de erros são conduzidas antes de qualquer projeto a ser desenvolvido. A necessidade do conhecimento do comportamento do erro numérico em malhas estruturadas e não-estruturadas surge com o aumento do uso destas malhas nos métodos de discretização. Desta forma, o objetivo deste trabalho foi criar uma metodologia para analisar os erros de discretização gerados através do truncamento na Série de Taylor, aplicados às equações de Poisson e de Advecção-Difusão estacionárias uni e bidimensionais, utilizando-se o Método de Volumes Finitos em malhas do tipo Voronoi. A escolha dessas equações se dá devido a sua grande utilização em testes de novos modelos matemáticos e função de interpolação. Foram usados os esquemas Central Difference Scheme (CDS) e Upwind Difference Scheme(UDS) nos termos advectivos. Verificou-se a influência do tipo de condição de contorno e a posição do ponto gerador do volume na solução numérica. Os resultados analíticos foram confrontados com resultados experimentais para dois tipos de malhas de Voronoi, uma malha cartesiana e outra triangular comprovando a influência da forma do volume finito na solução numérica obtida. Foi percebido no estudo que a discretização usando o esquema CDS tem erros menores do que a discretização usando o esquema UDS conforme literatura. Também se percebe a diferença nos erros em volumes vizinhos nas malhas triangulares o que faz com que não se tenha uma uniformidade nos gráficos dos erros estudados. Percebeu-se que as malhas cartesianas com nó no centróide do volume tem menor erro de discretização do que malhas triangulares. Mas o uso deste tipo de malha depende da geometria do problema estudado
Resumo:
Para reabilitar a ausência de um elemento dentário posterior, as próteses parciais fixas (PPF) com retentores intracoronários são uma alternativa aos implantes osseointegrados. O objetivo deste estudo foi avaliar a distribuição de tensões nessas próteses com três combinações de materiais: cerâmica de zircônia parcialmente estabilizada por ítria (ZPEI) revestida por cerâmica de fluorapatita (α), cerâmica de dissilicato de lítio (β) ou compósito fibrorreforçado (γ). Na composição α, foram analisadas a presença ou ausência da cerâmica de revestimento na parede cervical das caixas proximais e três variações na área total da seção transversal dos conectores (4 mm de largura x 3,2, 4,2 ou 5,2 mm de altura). Em 8 modelos bidimensionais de elementos finitos, uma carga vertical de 500 N foi aplicada na fossa central do pôntico e as tensões principais máximas (tração) e mínimas (compressão) foram apontadas em MPa. Inicialmente foram avaliados os 6 modelos com PPF de ZPEI e suas variações. Os maiores valores das tensões de tração foram encontrados no terço cervical dos conectores. Quando presente nestas regiões, a cerâmica de revestimento recebeu tensões acima do limite de sua resistência à flexão. Na comparação entre os modelos sem cerâmica de revestimento na parede cervical das caixas proximais, mesmo aquele com conectores de 3,2 x 4 mm, cuja infraestrutura apresentava 2,5 x 3 mm, poderia ser recomendado para uso clínico. Altos valores de tensões de compressão foram registrados entre o terço oclusal e médio dos conectores, correspondente à união entre as cerâmicas, o que poderia ocasionar, devido à flexão, falhas adesivas. Posteriormente, o modelo de ZPEI com a cerâmica de fluorapatita ausente da parede cervical das caixas proximais e área total dos conectores de 4,2 x 4 mm foi comparado aos dois outros materiais com conectores de mesma área. Na PPF de dissilicato de lítio, os valores representaram uma provável violação do limite de sua resistência à flexão. A PPF de compósito fibrorreforçado apresentou tensões bem abaixo do limite de resistência à flexão de sua infraestrutura, mas, como no modelo de ZPEI, tensões compressivas se concentraram com alto valor entre o terço oclusal e médio dos conectores, local de união entre a resina composta e a infraestrutura de fibras. Os resultados mostraram que a cerâmica de dissilicato de lítio e a presença da cerâmica de fluorapatita na parede cervical das caixas proximais deveriam ser contraindicadas para a condição proposta. Parece viável uma área de conectores na infraestrutura de ZPEI com no mínimo 2,5 x 3 mm. A PPF de compósito fibrorreforçado apresenta resistência estrutural para a situação estudada, mas, como também aquelas compostas de ZPEI, aparenta ter como pontos fracos a adesão entre a infraestrutura e o material de cobertura e a própria resistência deste último.
Resumo:
Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.
Resumo:
Embora as ações de vigilância e controle da leishmaniose visceral (LV) preconizadas pelo Ministério da Saúde venham sendo realizadas nas mais variadas áreas endêmicas do país, seus resultados não tem sido satisfatórios. Para conter a expansão da doença, tendo em vista o seu aumento em centros urbanos, a estratégia de controle da leishmaniose visceral utilizada no Brasil atualmente merece reavaliação. Neste estudo, foram analisados os dados das ações do Programa de Controle da Leishmaniose Visceral (PCL) desenvolvidas no período de 2006 a 2008 em 38 dos 113 bairros que compõe o município de Teresina, no Estado do Piauí. As ações do PCL (borrifação domiciliar com inseticidas e eliminação de cães sororreagentes) foram avaliadas trimestralmente, sendo a variável dependente o número de casos de LV ocorridos um ano após a execução das ações. Foram incluídas nas análises o ano de implementação destas ações e variáveis sócio-econômicas. A regressão de Poisson foi realizada para verificar o grau de associação entre a ocorrência do agravo em relação às diferentes combinações de medidas de controle implementadas pelo PCL sob intensidades de prevalência canina maiores ou menores que 10%. Após a regressão multivariada, constatou-se que, quando não se estratifica pelo nível de prevalência de infecção canina, os resultados apontam para uma não efetividade das ações de controle. Todavia, quando se estratifica pela prevalência canina, observa-se que, em locais onde ela é baixa, o controle do reservatório canino, executado de maneira independente das outras ações de controle, esteve associado com uma redução de 37% nas taxas de ocorrência de LV um ano após a implementação da ação (Razão de taxas de incidência = 0,63, p=0.05). A borrifação com inseticida executada de maneira independente das demais ações de controle, bem como a execução conjunta do controle do vetor alado e do reservatório canino, em ambos os cenários de prevalência canina, não apresentaram associação significativa com a incidência da doença nos anos posteriores a sua implementação. Estes achados constituem material relevante para discussão da efetividade das ações de controle da Leishmaniose Visceral.
Resumo:
Esta pesquisa tem como objetivo principal investigar como aprendizes brasileiros de língua inglesa usam advérbios com terminação em ly no inglês escrito, e comparar ao uso que deles fazem os falantes de inglês como língua materna. Para tanto, o trabalho encontra suporte teórico e metodológico na Linguística de Corpus e fundamenta-se na área chamada de pesquisa sobre corpora de aprendizes, que se ocupa da coleta e armazenagem de dados linguísticos de sujeitos aprendizes de uma língua estrangeira, para a formação de um corpus que possa ser utilizado para fins descritivos e pedagógicos. Esta área objetiva identificar em que aspectos os aprendizes diferem ou se assemelham aos falantes nativos. Os corpora empregados na pesquisa são o corpus de estudo (Br-ICLE), contendo inglês escrito por brasileiros, compilado de acordo com o projeto ICLE (International Corpus of Learner English) e dois corpora de referência (LOCNESS e BAWE), contendo inglês escrito por falantes de inglês como língua materna. Os resultados indicam que os alunos brasileiros usam, em demasia, as categorias de advérbios que indicam veracidade, realidade e intensidade, em relação ao uso que deles fazem os falantes nativos, além de usarem esses advérbios de forma distinta. Os resultados sugerem que, além das diferenças apresentadas em termos de frequência (seja pelo sobreuso ou subuso dos advérbios), os aprendizes apresentavam combinações errôneas, ou em termos de colocados ou em termos de prosódia semântica. E finalmente a pesquisa revela que a preferência dos aprendizes por advérbios que exprimem veracidade, realidade e intensidade cria a impressão de um discurso muito assertivo. Conclui-se que as diferenças encontradas podem estar ligadas a fatores como o tamanho dos corpora, a influência da língua materna dos aprendizes, a internalização dos elementos linguísticos necessários para a produção de um texto em língua estrangeira, a falta de fluência dos aprendizes e o contexto de sala de aula nas universidades
Resumo:
Esta dissertação apresenta um aperfeiçoamento para o Sistema de Imagens Tridimensional Híbrido (SITH) que é utilizado para obtenção de uma superfície tridimensional do relevo de uma determinada região a partir de dois aerofotogramas consecutivos da mesma. A fotogrametria é a ciência e tecnologia utilizada para obter informações confiáveis a partir de imagens adquiridas por sensores. O aperfeiçoamento do SITH consistirá na automatização da obtenção dos pontos através da técnica de Transformada de Características Invariantes a Escala (SIFT - Scale Invariant Feature Transform) dos pares de imagens estereoscópicas obtidos por câmeras aéreas métricas, e na utilização de técnicas de interpolação por splines cúbicos para suavização das superfícies tridimensionais obtidas pelo mesmo, proporcionando uma visualização mais clara dos detalhes da área estudada e auxiliando em prevenções contra deslizamentos em locais de risco a partir de um planejamento urbano adequado. Os resultados computacionais mostram que a incorporação destes métodos ao programa SITH apresentaram bons resultados.
Análise global da estabilidade termodinâmica de misturas: um estudo com o método do conjunto gerador
Resumo:
O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.
Resumo:
O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.