83 resultados para Matematica na oficina
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Os manuais diagnósticos de psiquiatria e as classificações internacionais de doenças vêm apontando o transtorno de conduta como um dos principais distúrbios que afetam crianças e adolescentes que vivem em meio urbano pobre. Esse trabalho investiga como a emergência e o avanço dessa categoria diagnóstica vem de encontro às transformações engendradas no cenário cultural pelo capitalismo, como a falta de empregos, aumento dos índices de violência e o constante sentimento de insegurança social. Busca se conhecer como essa categoria diagnóstica surge como uma forma de estigma e controle na sociedade contemporânea dos jovens diagnosticados, pois este transtorno é apontado como uma das explicações para causa da violência praticada por jovens. Esse estudo se deu no contexto de um ambulatório de saúde mental, num bairro pobre da cidade do Rio de janeiro, com adolescentes diagnosticados com o transtorno de conduta. Como metodologia, foi utilizada a análise do discurso dos profissionais de um ambulatório público de saúde em relação aos jovens diagnosticados. Foi feita também análise das condutas terapêuticas dos profissionais dirigidas aos jovens. Este trabalho aponta para farta prescrição de medicamentos no tratamento desses jovens diagnosticados no cotidiano, apesar das poucas evidências científicas de sua eficácia.
Resumo:
Esta tese, tecida e (com)partilhada no cotidiano da oficina Corpo, Cor e Sabor, no Núcleo de Arte Leblon Centro de Pesquisa em Formação em Ensino Escolar de Arte e Esporte da Secretaria Municipal de Educação do Rio de Janeiro, com crianças do 3 ano do ensino fundamental, defende a ideia de que as criançaspraticantes, desse espaçotempo escolar, possuem uma pluralidade de conhecimentos em alimentação, nutrição e saúde que precisam ser levados em consideração quando se pensa em produzir conhecimentos e instrumentos no campo da educação alimentar e nutricional. Tem, portanto, como objetivo principal desinvisibilizar os fazeressaberes dessas criançaspraticantes, além de conhecer os modos de aprenderensinar por elas valorizados e suas redes de valores e crenças frente ao tema. No seu percurso políticoteóricoepistemológicometodológico apoia-se nas artes de fazer dos praticantes ordinários apresentadas por Michel de Certeau, nos movimentos da pesquisa nosdoscom os cotidianos organizados por Nilda Alves de Oliveira, no Pensamento Complexo de Edgar Morin, no Paradigma Indiciário delineado por Carlo Ginzburg, na Sociologia das Ausências e das Emergências propostas por Boaventura de Sousa Santos, nos Currículos pensadospraticados tecidos por Inês Barbosa de Oliveira e na inteireza da práticateoria de Paulo Freire. Os fazeressaberes das criançaspraticantes são desinvisibilizados, e tornados credíveis, em sete narrativas das experiênciaspráticas do cotidiano da oficina, confirmando a hipótese da tese de que há uma constelação de conhecimentos em alimentação, nutrição e saúde, tecidos e compartilhados, cotidianamente, pelas criançaspraticantes, que não podem, de maneira alguma, ser negligenciados por pesquisadoresprofessores do campo da educacional alimentar e nutricional comprometidos com um presente não desperdiçado e com um futuro de possibilidades. Um futuro com mais saberes, cores, cheiros e sabores
Resumo:
Nesta dissertação é apresentada uma modelagem analítica para o processo evolucionário formulado pela Teoria da Evolução por Endossimbiose representado através de uma sucessão de estágios envolvendo diferentes interações ecológicas e metábolicas entre populações de bactérias considerando tanto a dinâmica populacional como os processos produtivos dessas populações. Para tal abordagem é feito uso do sistema de equações diferenciais conhecido como sistema de Volterra-Hamilton bem como de determinados conceitos geométricos envolvendo a Teoria KCC e a Geometria Projetiva. Os principais cálculos foram realizados pelo pacote de programação algébrica FINSLER, aplicado sobre o MAPLE.
Resumo:
Este trabalho apresenta um estudo teórico e numérico sobre os erros que ocorrem nos cálculos de gradientes em malhas não estruturadas constituídas pelo diagrama de Voronoi, malhas estas, formadas também pela triangulação de Delaunay. As malhas adotadas, no trabalho, foram as malhas cartesianas e as malhas triangulares, esta última é gerada pela divisão de um quadrado em dois ou quatro triângulos iguais. Para tal análise, adotamos a escolha de três metodologias distintas para o cálculo dos gradientes: método de Green Gauss, método do Mínimo Resíduo Quadrático e método da Média do Gradiente Projetado Corrigido. O texto se baseia em dois enfoques principais: mostrar que as equações de erros dadas pelos gradientes podem ser semelhantes, porém com sinais opostos, para pontos de cálculos em volumes vizinhos e que a ordem do erro das equações analíticas pode ser melhorada em malhas uniformes quando comparada as não uniformes, nos casos unidimensionais, e quando analisada na face de tais volumes vizinhos nos casos bidimensionais.
Resumo:
As análises de erros são conduzidas antes de qualquer projeto a ser desenvolvido. A necessidade do conhecimento do comportamento do erro numérico em malhas estruturadas e não-estruturadas surge com o aumento do uso destas malhas nos métodos de discretização. Desta forma, o objetivo deste trabalho foi criar uma metodologia para analisar os erros de discretização gerados através do truncamento na Série de Taylor, aplicados às equações de Poisson e de Advecção-Difusão estacionárias uni e bidimensionais, utilizando-se o Método de Volumes Finitos em malhas do tipo Voronoi. A escolha dessas equações se dá devido a sua grande utilização em testes de novos modelos matemáticos e função de interpolação. Foram usados os esquemas Central Difference Scheme (CDS) e Upwind Difference Scheme(UDS) nos termos advectivos. Verificou-se a influência do tipo de condição de contorno e a posição do ponto gerador do volume na solução numérica. Os resultados analíticos foram confrontados com resultados experimentais para dois tipos de malhas de Voronoi, uma malha cartesiana e outra triangular comprovando a influência da forma do volume finito na solução numérica obtida. Foi percebido no estudo que a discretização usando o esquema CDS tem erros menores do que a discretização usando o esquema UDS conforme literatura. Também se percebe a diferença nos erros em volumes vizinhos nas malhas triangulares o que faz com que não se tenha uma uniformidade nos gráficos dos erros estudados. Percebeu-se que as malhas cartesianas com nó no centróide do volume tem menor erro de discretização do que malhas triangulares. Mas o uso deste tipo de malha depende da geometria do problema estudado
Resumo:
Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.
Resumo:
Esta dissertação apresenta um aperfeiçoamento para o Sistema de Imagens Tridimensional Híbrido (SITH) que é utilizado para obtenção de uma superfície tridimensional do relevo de uma determinada região a partir de dois aerofotogramas consecutivos da mesma. A fotogrametria é a ciência e tecnologia utilizada para obter informações confiáveis a partir de imagens adquiridas por sensores. O aperfeiçoamento do SITH consistirá na automatização da obtenção dos pontos através da técnica de Transformada de Características Invariantes a Escala (SIFT - Scale Invariant Feature Transform) dos pares de imagens estereoscópicas obtidos por câmeras aéreas métricas, e na utilização de técnicas de interpolação por splines cúbicos para suavização das superfícies tridimensionais obtidas pelo mesmo, proporcionando uma visualização mais clara dos detalhes da área estudada e auxiliando em prevenções contra deslizamentos em locais de risco a partir de um planejamento urbano adequado. Os resultados computacionais mostram que a incorporação destes métodos ao programa SITH apresentaram bons resultados.
Análise global da estabilidade termodinâmica de misturas: um estudo com o método do conjunto gerador
Resumo:
O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.
Resumo:
A criança, nos primeiros anos de vida, entra em contato com a leitura pela via lúdica, no seio familiar. Ao ingressar na escola, nas séries iniciais, continua exposta a textos que têm como característica principal o lúdico e o prazeroso. Com o avançar das séries, a postura em relação à leitura vai mudando e passa a mote para a apresentação e desenvolvimento dos conteúdos curriculares. O gosto pela leitura que aproximou o discente do texto é aos poucos deixado de lado. O aluno vai perdendo o interesse pela leitura e já é lugar comum na escola, quiçá na sociedade atual, dizer que o aprendiz não gosta de ler, não sabe ler com competência, por isso, não consegue acompanhar as exigências escolares. Na prática docente, observa-se que os alunos leem, visto as numerosas publicações destinadas aos jovens, não leem o que a escola quer. Tal constatação leva a questionamentos acerca do problema e a pensar em um caminho para resgatar no discente a curiosidade, o gosto e o prazer pela leitura de um bom texto, fato corroborado pelos PCNs. Com o intuito de trabalhar essa nuança da leitura, que está relegada a segundo plano pela escola, decidiu-se pelo desenvolvimento de uma oficina de leitura com alunos do 8 ano do Ensino Fundamental de uma escola pública da cidade do Rio de Janeiro, organizada por gêneros textuais trabalhados um por vez, e levar os alunos a ler textos originais e completos, fugindo à fragmentação do livro didático. A seleção do material de leitura foi feita pela pesquisadora e, quando necessário, foi solicitada a colaboração dos jovens, além da utilização dos recursos disponíveis na escola. Adotou-se as posições teóricas de Mikhail Bakhtin (2006) acerca de língua, fala e enunciação; dialogismo e polifonia para corroborar as afirmações. No que se refere a texto, discurso e gêneros textuais, se tomou como base o trabalho de Coutinho (2004) e Marcuschi (2008). Para analisar as questões que envolvem leitura, principalmente, a escolar, foram consultados os PCNs e o trabalho de Silva (1998). Dentre outros. As atividades da oficina levaram à reflexão sobre as práticas de leitura na escola, pois, mesmo os PCNs propondo uma abordagem sociointeracionista, na realidade, não funciona. O livro didático ainda é a base do trabalho do professor. Outra forma de apresentação do texto em outros ambientes promoveu um trabalho produtivo no qual a maioria se envolveu e saiu da condição de leitores passivos a ativos e participativos. Houve diversas dificuldades, porém, ficou a certeza que se fez a diferença e se resgatou muito do leitor adormecido em cada aluno participante. As afirmações valem para esse pequeno grupo da investigação, não se podendo generalizar
Resumo:
O presente trabalho aborda um problema inverso associado a difus~ao de calor em uma barra unidimensional. Esse fen^omeno e modelado por meio da equac~ao diferencial par- cial parabolica ut = uxx, conhecida como equac~ao de difus~ao do calor. O problema classico (problema direto) envolve essa equac~ao e um conjunto de restric~oes { as condic~oes inicial e de contorno {, o que permite garantir a exist^encia de uma soluc~ao unica. No problema inverso que estudamos, o valor da temperatura em um dos extremos da barra n~ao esta disponvel. Entretanto, conhecemos o valor da temperatura em um ponto x0 xo no interior da barra. Para aproximar o valor da temperatura no intervalo a direita de x0, propomos e testamos tr^es algoritmos de diferencas nitas: diferencas regressivas, leap-frog e diferencas regressivas maquiadas.
Resumo:
Artes de Exu trata os objetos de arte não só pelos aspectos artísticos e sociológicos, mas também pelos aspectos que ligam as obras a Exu, além do enunciado. Como coisa contida na concepção, na execução e imbricada na própria história da obra. As obras escolhidas são: Tridente de NI (2006) de Alexandre Vogler e Exu dos Ventos (1992), de Mario Cravo Júnior. As obras contêm conflitos que envolvem a mídia, religiosos e políticos. A partir de pesquisas etnográficas é feita uma análise dos olhares que se cruzam na construção dos sentidos na disputa pelo espaço simbólico, considerando ainda o trânsito percorrido pelas obras entre a oficina, o espaço de exposição e a rua. Pertence ainda ao corpo das análises as referências na mídia impressa, forma de veiculação das imagens, apropriações e discursos. As artes de Exu se evidenciam no desenrolar dessas tramas, conforme os objetos artísticos oferecem um lugar para pensar na conciliação entre diferentes: entre a cruz e o tridente, entre Cristo e Exu e entre cristãos e religiões de matriz africana
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
Neste trabalho é descrita a teoria necessária para a obtenção da grandeza denominada intensidade supersônica, a qual tem por objetivo identificar as regiões de uma fonte de ruído que efetivamente contribuem para a potência sonora, filtrando, consequentemente, a parcela referente às ondas sonoras recirculantes e evanescentes. É apresentada a abordagem de Fourier para a obtenção da intensidade supersônica em fontes com geometrias separáveis e a formulação numérica existente para a obtenção de um equivalente à intensidade supersônica em fontes sonoras com geometrias arbitrárias. Este trabalho apresenta como principal contribuição original, uma técnica para o cálculo de um equivalente à intensidade supersônica, denominado aqui de intensidade acústica útil, capaz de identificar as regiões de uma superfície vibrante de geometria arbitrária que efetivamente contribuem para a potência sonora que será radiada. Ao contrário da formulação numérica existente, o modelo proposto é mais direto, totalmente formulado na superfície vibrante, onde a potência sonora é obtida através de um operador (uma matriz) que relaciona a potência sonora radiada com a distribuição de velocidade normal à superfície vibrante, obtida com o uso do método de elementos finitos. Tal operador, chamado aqui de operador de potência, é Hermitiano, fato crucial para a obtenção da intensidade acússtica útil, após a aplicação da decomposição em autovalores e autovetores no operador de potência, e do critério de truncamento proposto. Exemplos de aplicações da intensidade acústica útil em superfícies vibrantes com a geometria de uma placa, de um cilindro com tampas e de um silenciador automotivo são apresentados, e os resultados são comparados com os obtidos via intensidade supersônica (placa) e via técnica numérica existente (cilindro), evidenciando que a intensidade acústica útil traz, como benefício adicional, uma redução em relação ao tempo computacional quando comparada com a técnica numérica existente.
Resumo:
Os métodos espectrais são ferramentas úteis na análise de dados, sendo capazes de fornecer informações sobre a estrutura organizacional de dados. O agrupamento de dados utilizando métodos espectrais é comumente baseado em relações de similaridade definida entre os dados. O objetivo deste trabalho é estudar a capacidade de agrupamento de métodos espectrais e seu comportamento, em casos limites. Considera-se um conjunto de pontos no plano e usa-se a similaridade entre os nós como sendo o inverso da distância Euclidiana. Analisa-se a qual distância mínima, entre dois pontos centrais, o agrupamento espectral é capaz de reagrupar os dados em dois grupos distintos. Acessoriamente, estuda-se a capacidade de reagrupamento caso a dispersão entre os dados seja aumentada. Inicialmente foram realizados experimentos considerando uma distância fixa entre dois pontos, a partir dos quais os dados são gerados e, então, reduziu-se a distância entre estes pontos até que o método se tornasse incapaz de efetuar a separação dos pontos em dois grupos distintos. Em seguida, retomada a distância inicial, os dados foram gerados a partir da adição de uma perturbação normal, com variância crescente, e observou-se até que valor de variância o método fez a separação dos dados em dois grupos distintos de forma correta. A partir de um conjunto de pontos obtidos com a execução do algoritmo de evolução diferencial, para resolver um problema multimodal, testa-se a capacidade do método em separar os indivíduos em grupos diferentes.