54 resultados para Modelos computacionais

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

70.00% 70.00%

Publicador:

Resumo:

A teoria magneto-hidrodinâmicos permite a estruturação de modelos computacionais, designados modelos MHDs, que são uma extensão da dinâmica dos fluidos para lidar com fluidos eletricamente carregados, tais como os plasmas, em que se precisa considerar os efeitos de forças eletromagnéticas. Tais modelos são especialmente úteis quando o movimento exato de uma partícula não é de interesse, sendo que as equações descrevem as evoluções de quantidades macroscópicas. Várias formas de modelos MHD têm sido amplamente utilizadas na Física Espacial para descrever muitos tipos diferentes de fenômenos de plasma, tais como reconexão magnética e interações de ventos estelares com diferentes objetos celestiais. Neste trabalho, o objetivo é analisar o comportamento de diversos fluxos numéricos em uma discretização de volumes finitos de um modelo numérico de MHD usando um esquema de malha entrelaçada sem separação direcional considerando alguns casos testes. Para as simulações, utiliza-se o código Flash, desenvolvido pela Universidade de Chicago, por ser um código de amplo interesse nas simulações astrofísicas e de fenômenos no espaço próximo à Terra. A metodologia consiste na inclusão de um fluxo numérico, permitindo melhoria com respeito ao esquema HLL.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nas últimas décadas, a partir do crescimento substancial da população das grandes cidades, a demanda por espaço para habitação tem crescido de maneira importante. Para atender a estas necessidades, edificações cada vez mais altas e mais esbeltas são projetadas e vãos cada vez maiores são utilizados. Novos materiais são criados e aprimorados para que seja extraído o máximo de desempenho com o menor custo. Deste modo, esta dissertação tem como objetivo o estudo do comportamento estrutural e avaliação de conforto humano de edifícios de concreto armado. Para tal, são considerados ao longo do estudo quatro projetos de edificações de concreto armado distintos, com alturas variando na faixa de 30m a 70m (11 a 24 pavimentos), submetidos às ações das cargas usuais de projeto atuantes sobre edifícios residenciais, além das cargas de vento. No que tange ao desenvolvimento dos modelos computacionais são empregadas técnicas usuais de discretização, via método dos elementos finitos, por meio do programa ANSYS. Inicialmente, a resposta estrutural estática (deslocamentos e esforços) e dinâmica (acelerações de pico) dos modelos é obtida e comparada com base nos valores limites propostos por normas e recomendações de projeto. A partir de análises qualitativas e quantitativas desenvolvidas sobre a resposta dos modelos em estudo o desempenho estrutural dos edifícios analisados é avaliado, no que diz respeito ao conforto humano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta que oferece ao arquiteto uma metodologia e um conjunto de ferramentas que auxiliará na representação gráfica de projetos de acessibilidade. O elemento base da proposta constitui-se em uma biblioteca de modelos 3D onde os equipamentos de acessibilidade, necessários em um projeto, estão modelados de acordo com a norma NBR9050. Para organizar o conhecimento da norma e guiar o arquiteto no uso da metodologia, a abordagem inclui uma taxonomia dos equipamentos de acessibilidade, utilizada para induzir o uso correto dos mesmos na modelagem 3D e para a construção de um Help integrado às ferramentas providas, auxiliando o arquiteto em suas tomadas de decisão, indicando quais são as melhores soluções propostas pela NBR9050. Para validar a proposta, um protótipo foi desenvolvido e, com este suporte, foi realizada uma avaliação com estudantes de arquitetura onde se verificou a necessidade de novas ferramentas para representação gráfica e de consulta à norma NBR9050 e a aceitação as ferramentas propostas nesta dissertação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As simulações computacionais tem sido amplamente empregadas no estudo do escoamento darciano e não-darciano em meios porosos consolidados e não-consolidados. Neste trabalho, através de uma nova formulação para a equação de Forchheimer, foram identificadas duas novas propriedades denominados fator de comportamento do fluido, que atua paralelamente a permeabilidade, e permeabilidade equivalente global, resultado da relação anterior. Este comportamento foi estudado e validado através da implementação de um aparato experimental e um código computacional baseado no modelo de regressão-linear que, além disso, demonstrou que o escoamento, ainda que em regime não darciano, comporta-se linearmente como a equação de Darcy, ainda que o coeficiente angular desta diminuiu de acordo com a faixa do número de Reynolds atingida, sendo esta dependente do tipo de leito empregado. Ainda neste trabalho, foi implementado o método de otimização R2W para estimar os parâmetros da equação de Kozeny-Carman a partir de dados experimentais obtidos por Dias et al, a fim de simular o escoamento darciano em meios porosos. Por fim, foi alcançada excelente concordância entre os dados simulados pelo método R2W / equação de Kozeny-Carman e os dados reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo dos diferentes fenômenos de separação tem sido cada vez mais importante para os diferentes ramos da indústria e ciência. Devido à grande capacidade computacional atual, é possível modelar e analisar os fenômenos cromatográficos a nível microscópico. Os modelos de rede vêm sendo cada vez mais utilizados, para representar processos de separação por cromatografia, pois através destes pode-se representar os aspectos topológicos e morfológicos dos diferentes materiais adsorventes disponíveis no mercado. Neste trabalho visamos o desenvolvimento de um modelo de rede tridimensional para representação de uma coluna cromatográfica, a nível microscópico, onde serão modelados os fenômenos de adsorção, dessorção e dispersão axial através de um método estocástico. Também foram utilizadas diferentes abordagens com relação ao impedimento estérico Os resultados obtidos foram comparados a resultados experimentais. Depois é utilizado um modelo de rede bidimensional para representar um sistema de adsorção do tipo batelada, mantendo-se a modelagem dos fenômenos de adsorção e dessorção, e comparados a sistemas reais posteriormente. Em ambos os sistemas modelados foram analisada as constantes de equilíbrio, parâmetro fundamental nos sistemas de adsorção, e por fim foram obtidas e analisadas isotermas de adsorção. Foi possível concluir que, para os modelos de rede, os fenômenos de adsorção e dessorção bastam para obter perfis de saída similares aos vistos experimentalmente, e que o fenômeno da dispersão axial influência menos que os fenômenos cinéticos em questão

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Embora a cirurgia de avanço mandibular seja considerada um procedimento altamente estável, existem algumas preocupações clínicas em relação a mudanças nos côndilos e nos segmentos proximais, que podem levar a recidiva sagital e abertura de mordida. A avaliação dos resultados da cirurgia através de ferramentas de geração e superposição de modelos virtuais tridimensionais (3D) permite a identificação e quantificação dos deslocamentos e remodelação óssea que podem ajudar a explicar as interações entre os componentes dentários, esqueléticos e de tecido mole que estão relacionados a resposta ao tratamento. Este estudo observacional prospectivo avaliou, através de tomografia computadorizada de feixe cônico (CBCT), mudanças na posição/remodelação 3D dos ramos mandibulares, côndilos e mento. Assim, exames CBCT de 27 pacientes foram adquiridos antes da cirurgia (T1), imediatamente após a cirurgia(T2), e 1 ano após a cirurgia(T3). Uma técnica automática de superposição na base do crânio foi utilizada para permitir a avaliação das mudanças ocorridas nas regiões anatômicas de interesse (RAI). Os deslocamentos foram visualizados e quantificados em mapas coloridos 3D através da ferramenta de linha de contorno (ISOLINE). Pelo teste t pareado compararam-se as mudanças entre T1-T2 e T2-T3. O coeficiente de correlação de Pearson verificou se os deslocamentos ocorridos nas RAI foram correlacionados entre si e entre os tempos de avaliação. O nível de significância foi determinado em 0,05. O avanço mandibular médio foi de 6,813,2mm em T2 e 6,363,41mm em T3 (p=0,13). Entre T2 e T3, a posição do mento variou positivamente (≥2mm) em 5 pacientes negativamente em 7. 12% dos pacientes sofreram recidivas ≥4mm. Para todas as outras RAI avaliadas, apenas a porção inferior dos ramos (lado direito - 2,342,35mm e lado esquerdo 2,972,71mm) sofreram deslocamentos médios >2mm com a cirurgia. No acompanhamento em longo prazo, esse deslocamento lateral da porção inferior dos ramos foi mantido (lado direito - 2,102,15mm, p=0,26; e lado esquerdo -2,762,80, p=0,46), bem como todos os outros deslocamentos observados (p>0,05). As mudanças na posição do mento foram correlacionadas a adaptações pós-cirúrgicas nos bordos posteriores dos ramos (esquerdo r=-0,73 e direito r=-0,68) e côndilos (esquerdo r=-0,53 e direito r=-0,46). Os deslocamentos médios sofridos pelas estruturas do lado esquerdo foram suavemente maiores do que no direito. Correlações dos deslocamentos ocorridos entre T1-T2 e T2-T3 mostraram que: os deslocamentos dos côndilos esquerdos com a cirurgia foram negativamente correlacionados às adaptações pós-cirúrgicas destes (r=-0,51); e que o deslocamento da porção superior do ramo esquerdo com a cirurgia foi correlacionado à adaptação pós-cirúrgica ocorrida nos bordos posteriores (r=0,39) e côndilos do mesmo lado (r=0,39). Pode-se concluir que: (1) os deslocamentos causados pela cirurgia foram de modo geral estáveis no acompanhamento de 1 ano, mas identificou-se uma considerável variação individual; (2) as mudanças pós-cirúrgicas na posição do mento foram correlacionadas a adaptações sofridas pelos côndilos e bordos posteriores dos ramos; e que (3) deslocamentos suavemente maiores causados pela cirurgia nas estruturas do lado esquerdo levaram a maiores adaptações pós-cirúrgicas no segmento proximal deste lado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo verificar se há diferença quanto ao nível de significância estatística no cálculo do retorno anormal realizado através de quatro modelos estatísticos utilizados em estudos de eventos, tendo como objeto de estudo empresas no mercado de ações no Brasil durante o período de março de 2003 até julho de 2010 na Bovespa. Considerando a importância do cálculo do retorno anormal nos estudos de eventos, bem como possíveis variações de resultados decorrentes da escolha do modelo de cálculo, este estudo utiliza um tema bastante conhecido, qual seja, o anúncio de recompra de ações feito pela própria companhia emissora dos títulos. A metodologia utilizada nesta pesquisa foi quantitativa, utilizando o estudo de corte transversal. Os resultados apontam que há diferença entre os níveis de significância encontrados. Ao analisar o gráfico dos modelos calculados no período da janela do evento, verificou-se que as empresas que recompraram ações a fizeram quando os papéis estavam com retorno anormal acumulado negativo e, após a recompra, os papéis tiveram retornos anormais acumulados positivos. Recalculou-se os dois modelos que utilizam o Ibovespa em sua fórmula de cálculo, através de um Ibovespa sem ponderação e conclui-se que os resultados apontam na direção de se evitar o uso de índices ponderados de mercado, preferindo a utilização de carteiras compostas apenas com uma ação para cada empresa componente da carteira de controle. Após este recálculo, verificou-se que o modelo que era menos próximo dos demais graficamente era o modelo de retorno ajustado ao mercado ponderado. Por fim, as evidências empíricas indicam que o mercado de capitais brasileiro ajusta tempestivamente os papéis das empresas que realizaram recompra de ações, em linha com o que prescreve a hipótese do mercado eficiente na sua forma semiforte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O petróleo é uma mistura complexa consistindo em um número muito grande de hidrocarbonetos. A descrição completa de todos os hidrocarbonetos existentes nessas misturas é inviável experimentalmente ou consome tempo excessivo em simulações computacionais. Por esta razão, uma abordagem molecular completa para cálculos de propriedades dessas misturas é substituído por uma abordagem pseudo-componente ou por correlações entre propriedades macroscópicas. Algumas dessas propriedades são utilizadas de acordo com a regulamentação de venda de combustíveis, e.g., para gasolina. Dependendo do esquema de refino e do óleo cru utilizado para produção desse combustível, uma larga variedade de valores é encontrada para as propriedades de correntes de processo que compõe o combustível final. A fim de planejar com precisão adequada a mistura dessas correntes, modelos devem estar disponíveis para o cálculo preciso das propriedades necessárias. Neste trabalho, oito séries de combustíveis brasileiros e duas séries de combustíveis estrangeiros foram analisadas: frações de gasolina, querosene, gasóleo e diesel. As propriedades analisadas para as frações são: número de octano, teor de aromáticos, teor de enxofre, índice de refração, densidade, ponto de fulgor, ponto de fluidez, ponto de congelamento, ponto de névoa, ponto de anilina, pressão de vapor Reid e número de cetano. Diversas correlações foram avaliadas e os melhores desempenhos foram destacados, permitindo uma estimação precisa das propriedades do combustível avaliado. Um processo de re-estimação de parâmetros foi aplicado e novos modelos foram ajustados em comparação com os dados experimentais. Esta estratégia permitiu uma estimativa mais exata das propriedades analisadas, sendo verificada por um aumento considerável no desempenho estatístico dos modelos. Além disso, foi apresentado o melhor modelo para cada propriedade e cada série

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pseudomonas aeruginosa é um importante agente de pneumonia, particularmente em pacientes submetidos à ventilação mecânica, que pode evoluir para sepse, com elevadas taxas de letalidade. Na sepse, o processo inflamatório sistêmico exacerbado favorece o desequilíbrio entre as vias de coagulação e fibrinólise e a instalação de um estado pró-coagulante, com o aparecimento de trombose microvascular, coagulação intravascular disseminada e falência de múltiplos órgãos. Conhecendo a potente atividade pró-inflamatória da toxina ExoU produzida por P. aeruginosa, decorrente de sua atividade fosfolipásica A2, o objetivo desta tese foi investigar seu potencial de indução de alterações hemostáticas relacionadas à patogênese da sepse. Utilizando modelo de sepse em camundongos inoculados, por via intratraqueal, com suspensões de P. aeruginosa produtora de ExoU (PA103) ou de cepa com deleção do gene exoU, não produtora da toxina, foi mostrado que ExoU determinou maior gravidade da infecção, maior taxa de letalidade, leucopenia, trombocitose, hiperpermeabilidade vascular e transudação plasmática, evidenciadas, respectivamente, pela maior concentração de proteínas nos lavados broncoalveolares (LBAs) e acúmulo do corante Azul de Evans, previamente inoculado nos animais, por via endovenosa, no parênquima renal. ExoU favoreceu, também, a ativação plaquetária, confirmada pela maior concentração de plaquetas expressando P-selectina em sua superfície, maior número de micropartículas derivadas de plaquetas e maior concentração plasmática de tromboxano A2. A histopatologia dos pulmões e rins dos animais infectados com PA103 confirmou a formação de microtrombos, que não foram detectados nos animais controles ou infectados com a cepa mutante. Nos pulmões, a produção de ExoU determinou intensa resposta inflamatória com maior concentração de leucócitos totais e polimorfonucleados, interleucina-6 e fator de necrose tumoral-α nos LBAs. A análise imunohistoquímica mostrou intensa deposição de fibrina nos alvéolos e septos interalveolares. A atividade pró-coagulante dependente do fator tissular detectada nos LBAs dos camundongos infectados com PA103 foi independente da produção do inibidor da via de ativação do fator tissular (TFPI), mas associada ao aumento da produção do inibidor do ativador do plasminogênio-1 (PAI-1). Para investigar a participação do fator de ativação plaquetária (PAF) na liberação de PAI-1, foi pesquisada a atividade da enzima PAF-acetil-hidrolase (PAF-AH) nos LBAs dos camundongos. A atividade de PAF-AH apresentou-se significativamente elevada nos LBA dos camundongos infectados com PA103. O tratamento dos animais com um inibidor do PAF, antes da infecção, resultou na diminuição significativa das concentrações de PAI-1 e de leucócitos totais, bem como da atividade pró-coagulante dos LBAs. In vitro, ExoU induziu maior expressão do RNA mensageiro de PAI-1 e maior liberação da proteína PAI-1 nos sobrenadantes de células epiteliais respiratórias da linhagem A549. O tratamento das células A549 com um anticorpo anti-receptor de PAF, antes da infecção, reduziu significativamente a concentração de PAI-1 nos sobrenadantes de células infectadas com a cepa selvagem. Estes resultados demonstraram um novo mecanismo de virulência de P. aeruginosa através da atividade pró-trombótica de ExoU e a possibilidade de utilização da identificação de ExoU em isolados clínicos de pacientes graves como um marcador prognóstico para estes pacientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo das formas de relevo através da geomorfometria ciência que quantifica as superfícies topográficas demanda que múltiplas escalas sejam consideradas simultaneamente. Esse fato soma-se à continuidade espacial inerente à topografia, a qual raramente apresenta limites naturais abruptos, para conceder um caráter vago às formas de relevo. Essa dupla vagueza, no entanto, é raramente abordada de forma explícita em trabalhos científicos que, usualmente, valem-se de limiares e definições subjetivas e arbitrárias para descreverem o relevo. Dentro desse contexto, o trabalho apresenta um método inovador de caracterização geomorfométrica multiescala de modelos digitais de terreno (MDTs). A abordagem proposta baseia-se no método de extração de feições morfométricas de Wood (1996), mas o modifica em um número de maneiras: (i) expandindo o número de classes identificadas; (ii) transformando-o em um sistema fuzzy, cujos conjuntos fuzzy são parametrizados automaticamente e; (iii) limitando localmente a escala máxima de análise de maneira não-supervisionada. Como resultado, obtém-se um mapa de feições fundamentais e um mapa de escalas fundamentais que, juntos, sintetizam a estrutura multiescala das superfícies. Além disso, são produzidos mapas de pertinências fuzzy e de índice de confusão para cada escala analisada, assim como versões multiescala dos mesmos. Para avaliar a transferibilidade e o caráter não-supervisionado do método, foram analisados cinco MDTs oriundos de bases de dados distintas, com diferentes resoluções e extensões espaciais, compreendendo regiões continentais, do fundo dos oceanos e do planeta Marte. Os resultados obtidos foram avaliados em relação à utilização de escalas e parametrizações fixas, atestando a capacidade do método de empreender caracterizações geomorfométricas mais completas do que abordagens convencionais. Duas aplicações foram ainda propostas: a parametrização geomorfométrica multiescala e o desenvolvimento de uma assinatura morfométrica multiescala, demonstrando claros caminhos para a continuidade da pesquisa. Como conclusão geral, não obstante a algumas limitações apontadas, considerou-se que o trabalho apresentado alcançou seu objetivo de prover a caracterização geomorfométrica multiescala de modelos digitais de terreno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem por objetivo discutir os modelos de leitura subjacentes ao trabalho proposto em sites de ensino de Francês de Língua Estrangeira (FLE). Para compreender como se apresentam os modelos de leitura nesses contextos, consideramos como base teórica de partida a concepção sócio-interacional da língua. Para tal, contextualizamos a necessidade de uma constante reflexão acerca do processo de ensino/aprendizagem de FLE. Em seguida, apresentamos a motivação para desenvolver a pesquisa e apresentamos, resumidamente, o nosso percurso metodológico. Destacamos a revisão bibliográfica, apresentando os modelos de leitura e as estratégias que envolvem essa atividade em meio virtual. O primeiro momento de nossa pesquisa foi de cunho exploratório porque não tínhamos conhecimento do universo de sites voltados para o ensino de FLE. A pesquisa é, também, de natureza documental uma vez que trabalhamos com sites tomados como documentos. Optamos pelo caráter descritivo pois, a partir da descrição, baseada nos critérios de análise, do material retirado dos sites que fazem parte do nosso corpus, é que respondemos e confirmamos nossas hipóteses. Nosso método de análise é o qualitativo porque buscamos interpretar, a partir de nossas observações dos documentos selecionados em um primeiro momento. Após estabelecer os critérios, partimos para a discussão e análise dos dados e, em seguida, fazemos algumas orientações aos professores que quiserem utilizar o material disponibilizado pelos sites analisados. No capítulo final, fazemos considerações sobre a pesquisa, apresentamos os resultados das análises, explicitamos a importância do trabalho para a construção do conhecimento acerca da leitura em meio virtual, e, finalmente, recomendamos novos estudos, diante do que encontramos, para que o ensino da leitura em Língua Estrangeira contribua para a formação de leitores autônomos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se a escrita pessoal precisa sobreviver como habilidade individual perante as novas técnicas de produção textual, parece-nos necessária uma análise da escrita manual sob uma nova perspectiva. Num universo regido pelas mídias tecnológicas, no qual o computador pode ser visto como uma verdadeira extensão do homem, qual o lugar da escrita manual na atualidade? E, ainda: acreditando que o design pode auxiliar o educador, de que forma o mesmo pode interferir na aquisição da escrita manual e na formação de uma escrita legível e funcional? O presente projeto de pesquisa procura lançar luzes sobre este tema a partir de uma síntese dos principais modelos de escrita adotados na educação fundamental no Brasil durante o século XX. Para tanto, vamos elencá-los e analisá-los buscando relações e pontos comuns entre esses modelos e apontando para uma reflexão futura, calcada no campo do design e, em especial, da tipografia, tendo a aquisição da escrita como pano de fundo.