46 resultados para MODELOS MATEMÁTICOS


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Um dos problemas mais relevantes em organizações de grande porte é a escolha de locais para instalação de plantas industriais, centros de distribuição ou mesmo pontos comerciais. Esse problema logístico é uma decisão estratégica que pode causar um impacto significativo no custo total do produto comercializado. Existem na literatura diversos trabalhos que abordam esse problema. Assim, o objetivo desse trabalho é analisar o problema da localização de instalações proposto por diferentes autores e definir um modelo que seja o mais adequado possível ao mercado de distribuição de combustíveis no Brasil. Para isso, foi realizada uma análise do fluxo de refino e distribuição praticado neste segmento e da formação do respectivo custo de transporte. Foram consideradas restrições como capacidade de estoque, gama de produtos ofertados e níveis da hierarquia de distribuição. A partir dessa análise, foi definido um modelo matemático aplicado à redução dos custos de frete considerando-se a carga tributária. O modelo matemático foi implementado, em linguagem C, e permite simular o problema. Foram aplicadas técnicas de computação paralela visando reduzir o tempo de execução do algoritmo. Os resultados obtidos com o modelo Single Uncapacited Facility Location Problem (SUFLP) simulado nas duas versões do programa, sequencial e paralela, demonstram ganhos de até 5% em economia de custos e redução do tempo de execução em mais de 50%.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Neste trabalho foi utilizado um método matemático para classificar registros de potencial e corrente de ensaios de corrosão na técnica de amperimetria de resistência nula (ZRA). Foi aplicado o método estatístico de múltiplas variáveis simples chamado Análise dos Componentes Principais (PCA), cujo objetivo principal foi identificar padrões nestes dados de ruído eletroquímico. Foram testados o aço carbono UNS G10200, os aços inoxidáveis austenítico UNS S31600 e o superduplex UNS S32750 em meios de ácido sulfúrico (5% H2SO4), cloreto férrico (0,1 mol/L FeCl3) e hidróxido de sódio (0,1% NaOH). Os ensaios foram replicados com oito repetições para se ter reprodutibilidade e conhecimento dos aspectos estatísticos envolvidos. Os resultados mostraram que a análise de componentes principais pode ser utilizada como uma ferramenta para analisar sinais de ruído eletroquímico, identificando os clusters dos comportamentos potencial-tempo, corrente-tempo e acessoriamente identificar os outliersdos registros temporais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho objetiva a construção de estruturas robustas e computacionalmente eficientes para a solução do problema de deposição de parafinas do ponto de vista do equilíbrio sólido-líquido. São avaliados diversos modelos termodinâmicos para a fase líquida: equação de estado de Peng-Robinson e os modelos de coeficiente de atividade de Solução Ideal, Wilson, UNIQUAC e UNIFAC. A fase sólida é caracterizada pelo modelo Multisólido. A previsão de formação de fase sólida é inicialmente prevista por um teste de estabilidade termodinâmica. Posteriormente, o sistema de equações não lineares que caracteriza o equilíbrio termodinâmico e as equações de balanço material é resolvido por três abordagens numéricas: método de Newton multivariável, método de Broyden e método Newton-Armijo. Diversos experimentos numéricos foram conduzidos de modo a avaliar os tempos de computação e a robustez frente a diversos cenários de estimativas iniciais dos métodos numéricos para os diferentes modelos e diferentes misturas. Os resultados indicam para a possibilidade de construção de arcabouços computacionais eficientes e robustos, que podem ser empregados acoplados a simuladores de escoamento em dutos, por exemplo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tese apresentada uma proposta de desenvolvimento de uma ferramenta computacional para metrologia com microtomografia computadorizada que possa ser implantada em sistemas de microtomógrafos convencionais. O estudo concentra-se nas diferentes técnicas de detecção de borda utilizadas em processamento de imagens digitais.Para compreender a viabilidade do desenvolvimento da ferramenta optou-se por utilizar o Matlab 2010a. A ferramenta computacional proposta é capaz de medir objetos circulares e retangulares. As medidas podem ser horizontais ou circulares, podendo ser realizada várias medidas de uma mesma imagem, uma medida de várias imagens ou várias medidas de várias imagens. As técnicas processamento de imagens digitais implementadas são a limiarização global com escolha do threshold manualmente baseado no histograma da imagem ou automaticamente pelo método de Otsu, os filtros de passa-alta no domínio do espaço Sobel, Prewitt, Roberts, LoG e Canny e medida entre os picos mais externos da 1 e 2 derivada da imagem. Os resultados foram validados através de comparação com os resultados de teste realizados pelo Laboratório de Ensaios Mecânicos e Metrologia (LEMec) do Intstituto Politécnico do Rio de Janeiro (IPRJ), Universidade do Estado do Rio de Janeiro (UERJ), Nova Friburdo- RJ e pelo Serviço Nacional da Indústria Nova Friburgo (SENAI/NF). Os resultados obtidos pela ferramenta computacional foram equivalentes aos obtidos com os instrumentos de medição utilizados, demonstrando à viabilidade de utilização da ferramenta computacional a metrologia.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Modelos de evolução populacional são há muito tempo assunto de grande relevância, principalmente quando a população de estudo é composta por vetores de doenças. Tal importância se deve ao fato de existirem milhares de doenças que são propagadas por espécies específicas e conhecer como tais populações se comportam é vital quando pretende-se criar políticas públicas para controlar a sua proliferação. Este trabalho descreve um problema de evolução populacional difusivo com armadilhas locais e tempo de reprodução atrasado, o problema direto descreve a densidade de uma população uma vez conhecidos os parâmetros do modelo onde sua solução é obtida por meio da técnica de transformada integral generalizada, uma técnica numérico-analítica. Porém a solução do problema direto, por si só, não permite a simulação computacional de uma população em uma aplicação prática, uma vez que os parâmetros do modelo variam de população para população e precisam, portanto, ter seus valores conhecidos. Com o objetivo de possibilitar esta caracterização, o presente trabalho propõe a formulação e solução do problema inverso, estimando os parâmetros do modelo a partir de dados da população utilizando para tal tarefa dois métodos Bayesianos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo dos diferentes fenômenos de separação tem sido cada vez mais importante para os diferentes ramos da indústria e ciência. Devido à grande capacidade computacional atual, é possível modelar e analisar os fenômenos cromatográficos a nível microscópico. Os modelos de rede vêm sendo cada vez mais utilizados, para representar processos de separação por cromatografia, pois através destes pode-se representar os aspectos topológicos e morfológicos dos diferentes materiais adsorventes disponíveis no mercado. Neste trabalho visamos o desenvolvimento de um modelo de rede tridimensional para representação de uma coluna cromatográfica, a nível microscópico, onde serão modelados os fenômenos de adsorção, dessorção e dispersão axial através de um método estocástico. Também foram utilizadas diferentes abordagens com relação ao impedimento estérico Os resultados obtidos foram comparados a resultados experimentais. Depois é utilizado um modelo de rede bidimensional para representar um sistema de adsorção do tipo batelada, mantendo-se a modelagem dos fenômenos de adsorção e dessorção, e comparados a sistemas reais posteriormente. Em ambos os sistemas modelados foram analisada as constantes de equilíbrio, parâmetro fundamental nos sistemas de adsorção, e por fim foram obtidas e analisadas isotermas de adsorção. Foi possível concluir que, para os modelos de rede, os fenômenos de adsorção e dessorção bastam para obter perfis de saída similares aos vistos experimentalmente, e que o fenômeno da dispersão axial influência menos que os fenômenos cinéticos em questão

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Embora a cirurgia de avanço mandibular seja considerada um procedimento altamente estável, existem algumas preocupações clínicas em relação a mudanças nos côndilos e nos segmentos proximais, que podem levar a recidiva sagital e abertura de mordida. A avaliação dos resultados da cirurgia através de ferramentas de geração e superposição de modelos virtuais tridimensionais (3D) permite a identificação e quantificação dos deslocamentos e remodelação óssea que podem ajudar a explicar as interações entre os componentes dentários, esqueléticos e de tecido mole que estão relacionados a resposta ao tratamento. Este estudo observacional prospectivo avaliou, através de tomografia computadorizada de feixe cônico (CBCT), mudanças na posição/remodelação 3D dos ramos mandibulares, côndilos e mento. Assim, exames CBCT de 27 pacientes foram adquiridos antes da cirurgia (T1), imediatamente após a cirurgia(T2), e 1 ano após a cirurgia(T3). Uma técnica automática de superposição na base do crânio foi utilizada para permitir a avaliação das mudanças ocorridas nas regiões anatômicas de interesse (RAI). Os deslocamentos foram visualizados e quantificados em mapas coloridos 3D através da ferramenta de linha de contorno (ISOLINE). Pelo teste t pareado compararam-se as mudanças entre T1-T2 e T2-T3. O coeficiente de correlação de Pearson verificou se os deslocamentos ocorridos nas RAI foram correlacionados entre si e entre os tempos de avaliação. O nível de significância foi determinado em 0,05. O avanço mandibular médio foi de 6,813,2mm em T2 e 6,363,41mm em T3 (p=0,13). Entre T2 e T3, a posição do mento variou positivamente (≥2mm) em 5 pacientes negativamente em 7. 12% dos pacientes sofreram recidivas ≥4mm. Para todas as outras RAI avaliadas, apenas a porção inferior dos ramos (lado direito - 2,342,35mm e lado esquerdo 2,972,71mm) sofreram deslocamentos médios >2mm com a cirurgia. No acompanhamento em longo prazo, esse deslocamento lateral da porção inferior dos ramos foi mantido (lado direito - 2,102,15mm, p=0,26; e lado esquerdo -2,762,80, p=0,46), bem como todos os outros deslocamentos observados (p>0,05). As mudanças na posição do mento foram correlacionadas a adaptações pós-cirúrgicas nos bordos posteriores dos ramos (esquerdo r=-0,73 e direito r=-0,68) e côndilos (esquerdo r=-0,53 e direito r=-0,46). Os deslocamentos médios sofridos pelas estruturas do lado esquerdo foram suavemente maiores do que no direito. Correlações dos deslocamentos ocorridos entre T1-T2 e T2-T3 mostraram que: os deslocamentos dos côndilos esquerdos com a cirurgia foram negativamente correlacionados às adaptações pós-cirúrgicas destes (r=-0,51); e que o deslocamento da porção superior do ramo esquerdo com a cirurgia foi correlacionado à adaptação pós-cirúrgica ocorrida nos bordos posteriores (r=0,39) e côndilos do mesmo lado (r=0,39). Pode-se concluir que: (1) os deslocamentos causados pela cirurgia foram de modo geral estáveis no acompanhamento de 1 ano, mas identificou-se uma considerável variação individual; (2) as mudanças pós-cirúrgicas na posição do mento foram correlacionadas a adaptações sofridas pelos côndilos e bordos posteriores dos ramos; e que (3) deslocamentos suavemente maiores causados pela cirurgia nas estruturas do lado esquerdo levaram a maiores adaptações pós-cirúrgicas no segmento proximal deste lado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo verificar se há diferença quanto ao nível de significância estatística no cálculo do retorno anormal realizado através de quatro modelos estatísticos utilizados em estudos de eventos, tendo como objeto de estudo empresas no mercado de ações no Brasil durante o período de março de 2003 até julho de 2010 na Bovespa. Considerando a importância do cálculo do retorno anormal nos estudos de eventos, bem como possíveis variações de resultados decorrentes da escolha do modelo de cálculo, este estudo utiliza um tema bastante conhecido, qual seja, o anúncio de recompra de ações feito pela própria companhia emissora dos títulos. A metodologia utilizada nesta pesquisa foi quantitativa, utilizando o estudo de corte transversal. Os resultados apontam que há diferença entre os níveis de significância encontrados. Ao analisar o gráfico dos modelos calculados no período da janela do evento, verificou-se que as empresas que recompraram ações a fizeram quando os papéis estavam com retorno anormal acumulado negativo e, após a recompra, os papéis tiveram retornos anormais acumulados positivos. Recalculou-se os dois modelos que utilizam o Ibovespa em sua fórmula de cálculo, através de um Ibovespa sem ponderação e conclui-se que os resultados apontam na direção de se evitar o uso de índices ponderados de mercado, preferindo a utilização de carteiras compostas apenas com uma ação para cada empresa componente da carteira de controle. Após este recálculo, verificou-se que o modelo que era menos próximo dos demais graficamente era o modelo de retorno ajustado ao mercado ponderado. Por fim, as evidências empíricas indicam que o mercado de capitais brasileiro ajusta tempestivamente os papéis das empresas que realizaram recompra de ações, em linha com o que prescreve a hipótese do mercado eficiente na sua forma semiforte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pseudomonas aeruginosa é um importante agente de pneumonia, particularmente em pacientes submetidos à ventilação mecânica, que pode evoluir para sepse, com elevadas taxas de letalidade. Na sepse, o processo inflamatório sistêmico exacerbado favorece o desequilíbrio entre as vias de coagulação e fibrinólise e a instalação de um estado pró-coagulante, com o aparecimento de trombose microvascular, coagulação intravascular disseminada e falência de múltiplos órgãos. Conhecendo a potente atividade pró-inflamatória da toxina ExoU produzida por P. aeruginosa, decorrente de sua atividade fosfolipásica A2, o objetivo desta tese foi investigar seu potencial de indução de alterações hemostáticas relacionadas à patogênese da sepse. Utilizando modelo de sepse em camundongos inoculados, por via intratraqueal, com suspensões de P. aeruginosa produtora de ExoU (PA103) ou de cepa com deleção do gene exoU, não produtora da toxina, foi mostrado que ExoU determinou maior gravidade da infecção, maior taxa de letalidade, leucopenia, trombocitose, hiperpermeabilidade vascular e transudação plasmática, evidenciadas, respectivamente, pela maior concentração de proteínas nos lavados broncoalveolares (LBAs) e acúmulo do corante Azul de Evans, previamente inoculado nos animais, por via endovenosa, no parênquima renal. ExoU favoreceu, também, a ativação plaquetária, confirmada pela maior concentração de plaquetas expressando P-selectina em sua superfície, maior número de micropartículas derivadas de plaquetas e maior concentração plasmática de tromboxano A2. A histopatologia dos pulmões e rins dos animais infectados com PA103 confirmou a formação de microtrombos, que não foram detectados nos animais controles ou infectados com a cepa mutante. Nos pulmões, a produção de ExoU determinou intensa resposta inflamatória com maior concentração de leucócitos totais e polimorfonucleados, interleucina-6 e fator de necrose tumoral-α nos LBAs. A análise imunohistoquímica mostrou intensa deposição de fibrina nos alvéolos e septos interalveolares. A atividade pró-coagulante dependente do fator tissular detectada nos LBAs dos camundongos infectados com PA103 foi independente da produção do inibidor da via de ativação do fator tissular (TFPI), mas associada ao aumento da produção do inibidor do ativador do plasminogênio-1 (PAI-1). Para investigar a participação do fator de ativação plaquetária (PAF) na liberação de PAI-1, foi pesquisada a atividade da enzima PAF-acetil-hidrolase (PAF-AH) nos LBAs dos camundongos. A atividade de PAF-AH apresentou-se significativamente elevada nos LBA dos camundongos infectados com PA103. O tratamento dos animais com um inibidor do PAF, antes da infecção, resultou na diminuição significativa das concentrações de PAI-1 e de leucócitos totais, bem como da atividade pró-coagulante dos LBAs. In vitro, ExoU induziu maior expressão do RNA mensageiro de PAI-1 e maior liberação da proteína PAI-1 nos sobrenadantes de células epiteliais respiratórias da linhagem A549. O tratamento das células A549 com um anticorpo anti-receptor de PAF, antes da infecção, reduziu significativamente a concentração de PAI-1 nos sobrenadantes de células infectadas com a cepa selvagem. Estes resultados demonstraram um novo mecanismo de virulência de P. aeruginosa através da atividade pró-trombótica de ExoU e a possibilidade de utilização da identificação de ExoU em isolados clínicos de pacientes graves como um marcador prognóstico para estes pacientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo das formas de relevo através da geomorfometria ciência que quantifica as superfícies topográficas demanda que múltiplas escalas sejam consideradas simultaneamente. Esse fato soma-se à continuidade espacial inerente à topografia, a qual raramente apresenta limites naturais abruptos, para conceder um caráter vago às formas de relevo. Essa dupla vagueza, no entanto, é raramente abordada de forma explícita em trabalhos científicos que, usualmente, valem-se de limiares e definições subjetivas e arbitrárias para descreverem o relevo. Dentro desse contexto, o trabalho apresenta um método inovador de caracterização geomorfométrica multiescala de modelos digitais de terreno (MDTs). A abordagem proposta baseia-se no método de extração de feições morfométricas de Wood (1996), mas o modifica em um número de maneiras: (i) expandindo o número de classes identificadas; (ii) transformando-o em um sistema fuzzy, cujos conjuntos fuzzy são parametrizados automaticamente e; (iii) limitando localmente a escala máxima de análise de maneira não-supervisionada. Como resultado, obtém-se um mapa de feições fundamentais e um mapa de escalas fundamentais que, juntos, sintetizam a estrutura multiescala das superfícies. Além disso, são produzidos mapas de pertinências fuzzy e de índice de confusão para cada escala analisada, assim como versões multiescala dos mesmos. Para avaliar a transferibilidade e o caráter não-supervisionado do método, foram analisados cinco MDTs oriundos de bases de dados distintas, com diferentes resoluções e extensões espaciais, compreendendo regiões continentais, do fundo dos oceanos e do planeta Marte. Os resultados obtidos foram avaliados em relação à utilização de escalas e parametrizações fixas, atestando a capacidade do método de empreender caracterizações geomorfométricas mais completas do que abordagens convencionais. Duas aplicações foram ainda propostas: a parametrização geomorfométrica multiescala e o desenvolvimento de uma assinatura morfométrica multiescala, demonstrando claros caminhos para a continuidade da pesquisa. Como conclusão geral, não obstante a algumas limitações apontadas, considerou-se que o trabalho apresentado alcançou seu objetivo de prover a caracterização geomorfométrica multiescala de modelos digitais de terreno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem por objetivo discutir os modelos de leitura subjacentes ao trabalho proposto em sites de ensino de Francês de Língua Estrangeira (FLE). Para compreender como se apresentam os modelos de leitura nesses contextos, consideramos como base teórica de partida a concepção sócio-interacional da língua. Para tal, contextualizamos a necessidade de uma constante reflexão acerca do processo de ensino/aprendizagem de FLE. Em seguida, apresentamos a motivação para desenvolver a pesquisa e apresentamos, resumidamente, o nosso percurso metodológico. Destacamos a revisão bibliográfica, apresentando os modelos de leitura e as estratégias que envolvem essa atividade em meio virtual. O primeiro momento de nossa pesquisa foi de cunho exploratório porque não tínhamos conhecimento do universo de sites voltados para o ensino de FLE. A pesquisa é, também, de natureza documental uma vez que trabalhamos com sites tomados como documentos. Optamos pelo caráter descritivo pois, a partir da descrição, baseada nos critérios de análise, do material retirado dos sites que fazem parte do nosso corpus, é que respondemos e confirmamos nossas hipóteses. Nosso método de análise é o qualitativo porque buscamos interpretar, a partir de nossas observações dos documentos selecionados em um primeiro momento. Após estabelecer os critérios, partimos para a discussão e análise dos dados e, em seguida, fazemos algumas orientações aos professores que quiserem utilizar o material disponibilizado pelos sites analisados. No capítulo final, fazemos considerações sobre a pesquisa, apresentamos os resultados das análises, explicitamos a importância do trabalho para a construção do conhecimento acerca da leitura em meio virtual, e, finalmente, recomendamos novos estudos, diante do que encontramos, para que o ensino da leitura em Língua Estrangeira contribua para a formação de leitores autônomos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se a escrita pessoal precisa sobreviver como habilidade individual perante as novas técnicas de produção textual, parece-nos necessária uma análise da escrita manual sob uma nova perspectiva. Num universo regido pelas mídias tecnológicas, no qual o computador pode ser visto como uma verdadeira extensão do homem, qual o lugar da escrita manual na atualidade? E, ainda: acreditando que o design pode auxiliar o educador, de que forma o mesmo pode interferir na aquisição da escrita manual e na formação de uma escrita legível e funcional? O presente projeto de pesquisa procura lançar luzes sobre este tema a partir de uma síntese dos principais modelos de escrita adotados na educação fundamental no Brasil durante o século XX. Para tanto, vamos elencá-los e analisá-los buscando relações e pontos comuns entre esses modelos e apontando para uma reflexão futura, calcada no campo do design e, em especial, da tipografia, tendo a aquisição da escrita como pano de fundo.