38 resultados para Algoritmos genéticos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a necessidade de extrair as informações contidas nas imagens de satélite de forma rápida, eficiente e econômica, são utilizadas cada vez mais as técnicas computacionais de processamento de imagens como a de segmentação automática. Segmentar uma imagem consiste em dividí-la em regiões através de um critério de similaridade, onde os pixels que estão contidos nestas possuem características semelhantes, como por exemplo, nível de cinza, textura, ou seja, a que melhor represente os objetos presentes na imagem. Existem vários exemplos de algoritmos segmentadores, como o de crescimento de regiões onde os pixels crescem e são aglutinados formando regiões. Para determinar quais os melhores parâmetros utilizados nestes algoritmos segmentadores é necessário que se avalie os resultados a partir dos métodos mais utilizados, que são os supervisionados onde há necessidade de uma imagem de referência, considerada ideal fazendo com que se tenha um conhecimento a priori da região de estudo. Os não supervisionados, onde não há a necessidade de uma imagem de referência, fazendo com que o usuário economize tempo. Devido à dificuldade de se obter avaliadores para diferentes tipos de imagem, é proposta a metodologia que permite avaliar imagens que possuam áreas com vegetação, onde serão formadas grandes regiões (Crianass) e o que avaliará as imagens com áreas urbanas onde será necessário mais detalhamento (Cranassir).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Ensino à distância (EaD) procura utilizar propostas pedagógicas para desenvolver sistemas inclusivos de ensino e aprendizagem. Estas propostas tem colaborado no sucesso que a EaD tem alcançado no meio empresarial corporativo. Neste meio, a demanda por cursos de formação técnica tem sido tão alta, que as empresas envolvidas no design instrucional de EaD criaram a noção de cursos à distância expressos, ou seja, cursos cuja a concepção e elaboração devem atender as tradicionais necessidades de rapidez do mercado de trabalho. Esta dissertação procura soluções para um tipo de ensino à distância ainda pouco explorado. O cenário que procuramos equacionar é o do ensino de ferramentas (softwares) para desenho vetorial, onde a metodologia de ensino é parte do processo de ensino corporativo. No processo atual de ensino de ferramentas de computação gráfica, o aluno submete ao professor, normalmente pela internet, o seu trabalho para que uma avaliação seja feita. Nesta dissertação sugerimos que este processo seja modificado de duas formas. Primeiro, no design instrucional para esta situação, trabalhamos constantemente a questão de avaliação não só na sua forma tradicional (atribuição de graus e valores) mas também como aperfeiçoamento do processo de ensino. A hipermídia adaptativa entra nesta proposta como facilitador da relação alunoprofessor-conhecimento, permitindo individualização de um ensino voltado para as massas. Em segundo lugar, propomos que a avaliação das tarefas sejam automatizada. O aluno oferece as partes (objetos) da solução que são avaliadas individualmente através de algoritmos computacionais. Isto permite uma menor participação do professor, o que é compatível com a proposta de cursos expressos. Para que isto seja possível a tarefa proposta pelo professor é dividida em objetos componentes, sendo o aluno estimulado a criar cada objeto segundo o modelo padrão oferecido. A comparaçào de cada objeto criado pelo aluno com o padrão a ser alcançado pode ser feita por diversos algoritmos computacionais existentes ou criados especificamente pelo autor do curso. Neste trabalho apresentamos exemplos desta abordagem e um protótipo que demonstra a viabilidade da proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A obesidade é uma doença crônica, resultante do excesso de gordura no organismo. O aumento da obesidade no mundo, tem se revelado como um dos fenômenos clínicos e epidemiológicos da atualidade. Estudos populacionais e em modelos animais demonstram que a origem da epidemia da obesidade está relacionada a fatores genéticos, modificações de hábitos nutricionais, redução da atividade física, e alterações nutricionais durante a lactação, desempenhando um papel relevante no desenvolvimento da obesidade, DM2 e cardiomiopatias. As mitocôndrias são os coordenadores centrais do metabolismo energético, assim, alterações funcionais e estruturais dessa organela têm sido associadas à desordens metabólicas. Elas exercem um papel na sobrevivência e função dos cardiomiócitos devido à alta demanda energética do miocárdio. Desta forma, disfunções mitocondriais estão relacionadas com disfunções no miocárdio e conseqüente progressão de cardiomiopatias. Neste estudo, avaliamos a bioenergética e a ultraestrutura de cardiomiócitos de camundongos obesos e controle hiperalimentados durante a lactação. O consumo de oxigênio das fibras cardíacas foi avaliado por respirometria de alta-resolução, utilizando um oxígrafo-2K-Oroboros. A ultraestrutura dos cardiomiócitos foi analisada por microscopia eletrônica de transmissão e o conteúdo das proteínas Carnitina palmitoil transferase 1 (CPT1), Proteína desacopladora 2 (UCP2) , Transportador de glicose 1 e 4 (GLUT1) e (GLUT4), Proteína Kinase ativada por AMP (AMPK) e Proteína kinase ativada por AMP fosforilada p(AMPK) por Western blotting (WB). Além disso, o peso dos animais, a gordura retroperitoneal, epididimal e a glicemia em jejum foram determinadas. Nossos resultados confirmaram que os animais do grupo hiperalimentados (GH), aos 90 dias de vida, apresentaram aumento da massa corporal, de gordura epididimária e retroperitoneal comparado ao grupo controle (GC). As taxas respiratórias foram semelhantes nos dois grupos quando foram utilizados os substratos dos complexos I e II. Entretanto, quando o ácido graxo palmitoil-L-carnitina foi utilizado, a taxa respiratória máxima do GH foi significativamente menor. A análise ultraestrutural dos cardiomiócitos do GH demonstrou intenso dano na matriz mitocondrial e maior presença de gotículas de lipídios, caracterizando deposição ectópica. Os resultados do WB mostraram aumento significativo do conteúdo de CPT1 e UCP2 no GH comparado ao GC. Não foram encontradas diferenças significativas no conteúdo de GLUT1 entre os grupos, entretanto, observamos maior conteúdo do GLUT4 no GH. Além disso, encontramos maior conteúdo de AMPK no GH, ao passo que o conteúdo de pAMPK foi semelhante entre os grupos. Entretanto, a razão pAMPK/AMPK é significativamente menor no GH. Esses resultados sugerem que a hiperalimentação durante a lactação leva a obesidade na vida adulta com alterações na bioenergética e ultraestrutura dos cardiomiócitos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Devido a sua alta incidência, mortalidade e custos elevados, o câncer de mama feminino é considerado um problema de saúde pública no Brasil. Sua etiologia envolve uma interação de diversos fatores denominados de risco os quais podem ser ambientais e genéticos. A história familiar positiva para câncer de mama é um importante fator de risco para o desenvolvimento dessa patologia. Conhecer esses fatores e as medidas de proteção permite que mulheres com risco elevado possam criar estratégias pessoais que venham minimizar os danos causados pela doença. Diante do exposto, o presente estudo tem como objetivos avaliar o nível de conhecimento de mulheres acerca do risco de desenvolverem câncer de mama em decorrência do vínculo familiar com a população portadora desta neoplasia matriculada no Hospital do Câncer III, unidade do Instituto Nacional de Câncer (INCA) especializada no tratamento e controle do câncer de mama, localizada no município do Rio de Janeiro, Brasil; descrever as características sociodemográficas das mulheres familiares de pacientes portadoras de câncer de mama e descrever a história reprodutiva e hormonal, bem como seus hábitos de cuidado com a saúde. Metodologia: trata-se de um estudo exploratório sob a perspectiva quantitativa, transversal e descritiva com 52 mulheres que acompanhavam suas familiares internadas em unidade clínica e cirúrgica do Hospital do Câncer III. A coleta de dados ocorreu no período entre julho e agosto de 2011. A técnica de amostragem adotada foi a não probabilística, intencional Para o cálculo amostral aplicou-se a fórmula de população infinita. Foram selecionadas as seguintes variáveis para compor o estudo: aspectos sociodemográficos, aspectos da vida reprodutiva e hormonal, aspectos de cuidados com a saúde e aspectos de esclarecimento relacionados à patologia/doença. Realizou-se entrevista estruturada com utilização de um formulário composto por 63 questões. A descrição das variáveis foi feita através de frequência simples e porcentagem. Resultados: 61,5% eram filhas, 34,6% eram irmãs e 3,8% eram mães, 40,4% moram no município do Rio de Janeiro, 86,4% encontram-se na faixa etária entre 29 e acima de 51 anos de idade, 32% são pardas, 46,1% apresentavam 2 grau completo, 46,2% são do lar, 15,4% tiveram menarca precoce, 7,7 % tiveram na menopausa tardia, 7,7% fizeram Terapia de Reposição Hormonal, 38,5% nunca engravidaram, 3,8% engravidaram após 30 anos, 3,8% não amamentaram, 42,4% usam anticoncepcional hormonal por mais de 5 anos e 40,4% nunca fizeram descanso ou faz por tempo inferior a 6 meses, 7,7% e 7,6% nunca fizeram e apresenta mais de 24 meses que fizeram exame ginecológico. Quanto ao grau de esclarecimento 34% concordaram com as afirmativas sobre fatores de risco, 65% concordaram com medidas preventivas e os profissionais de saúde foram os que mais transmitiram informação sobre o câncer de mama. Conclusão: ser familiar de primeiro grau associado à falta de esclarecimento sobre a doença torna essas mulheres mais vulneráveis em relação à população geral feminina. Torna-se oportuno para a enfermagem estratégias educativas que visem à promoção da saúde e que contribuam para a modificação do panorama da doença, em razão da detecção mais precoce.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.