917 resultados para Computational Dialectometry


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sistema logístico para distribuição de produtos acabados caracteriza-se pela integração dos serviços de comunicação, transporte e financeiros com a finalidade de atender às demandas do consumidor final. Estima-se que no estado do Espírito Santo, o consumo de carne de frango seja de 44,4 quilos per capita por ano. Para atender a esta demanda, o estado conta com matadouros-frigoríficos distribuídos pelo seu território, bem como, com a participação de outras empresas localizadas no país. Em sistemas de transportes, são característicos Problemas de Roteamento de Veículos (VRP), que precisam ser estudados, caracterizados e otimizados, normalmente, através de rotinas computacionais, que permitem avaliar maior quantidade de variáveis. O presente trabalho teve por objetivo caracterizar um VRP de um matadouro-frigorífico da região do Sul do Espírito Santo e desenvolver um aplicativo computacional que seja suporte para os gestores de logística, servindo para avaliar e propor rotas, e analisar parâmetros logísticos do processo de distribuição de produtos. No desenvolvimento do aplicativo computacional foi necessário caracterizar o sistema logístico da empresa, coletar e analisar os dados das operações logísticas, desenvolver as rotinas computacionais que representassem o sistema em estudo, verificar a confiabilidade dos resultados fornecidos pelo aplicativo, validá-lo e então, poder realizar as experimentações. O aplicativo desenvolvido permitiu reproduzir dados do sistema estudado e avaliar rotas segundo parâmetros logísticos. Pode-se concluir que o aplicativo computacional desenvolvido é útil aos gestores de logística, permitindo a avaliação das rotas praticadas e de novas configurações de rotas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objetivo deste trabalho foi identificar e caracterizar a evolução diária da Camada Limite Atmosférica (CLA) na Região da Grande Vitória (RGV), Estado do Espírito Santo, Brasil e na Região de Dunkerque (RD), Departamento Nord Pas-de-Calais, França, avaliando a acurácia de parametrizações usadas no modelo meteorológico Weather Research and Forecasting (WRF) em detectar a formação e atributos da Camada Limite Interna (CLI) que é formada pelas brisas marítimas. A RGV tem relevo complexo, em uma região costeira de topografia acidentada e uma cadeia de montanhas paralela à costa. A RD tem relevo simples, em uma região costeira com pequenas ondulações que não chegam a ultrapassar 150 metros, ao longo do domínio de estudos. Para avaliar os resultados dos prognósticos feitos pelo modelo, foram utilizados os resultados de duas campanhas: uma realizada na cidade de Dunkerque, no norte da França, em Julho de 2009, utilizando um sistema light detection and ranging (LIDAR), um sonic detection and ranging (SODAR) e dados de uma estação meteorológica de superfície (EMS); outra realizada na cidade de Vitória – Espírito Santo, no mês de julho de 2012, também usando um LIDAR, um SODAR e dados de uma EMS. Foram realizadas simulações usando três esquemas de parametrizações para a CLA, dois de fechamento não local, Yonsei University (YSU) e Asymmetric Convective Model 2 (ACM2) e um de fechamento local, Mellor Yamada Janjic (MYJ) e dois esquemas de camada superficial do solo (CLS), Rapid Update Cycle (RUC) e Noah. Tanto para a RGV quanto para a RD, foram feitas simulações com as seis possíveis combinações das três parametrizações de CLA e as duas de CLS, para os períodos em que foram feitas as campanhas, usando quatro domínios aninhados, sendo os três maiores quadrados com dimensões laterais de 1863 km, 891 km e 297 km, grades de 27 km, 9 km e 3 km, respectivamente, e o domínio de estudo, com dimensões de 81 km na direção Norte-Sul e 63 km na Leste-Oeste, grade de 1 km, com 55 níveis verticais, até um máximo de, aproximadamente, 13.400 m, mais concentrados próximos ao solo. Os resultados deste trabalho mostraram que: a) dependendo da configuração adotada, o esforço computacional pode aumentar demasiadamente, sem que ocorra um grande aumento na acurácia dos resultados; b) para a RD, a simulação usando o conjunto de parametrizações MYJ para a CLA com a parametrização Noah produziu a melhor estimativa captando os fenômenos da CLI. As simulações usando as parametrizações ACM2 e YSU inferiram a entrada da brisa com atraso de até três horas; c) para a RGV, a simulação que usou as parametrizações YSU para a CLA em conjunto com a parametrização Noah para CLS foi a que conseguiu fazer melhores inferências sobre a CLI. Esses resultados sugerem a necessidade de avaliações prévias do esforço computacional necessário para determinadas configurações, e sobre a acurácia de conjuntos de parametrizações específicos para cada região pesquisada. As diferenças estão associadas com a capacidade das diferentes parametrizações em captar as informações superficiais provenientes das informações globais, essenciais para determinar a intensidade de mistura turbulenta vertical e temperatura superficial do solo, sugerindo que uma melhor representação do uso de solo é fundamental para melhorar as estimativas sobre a CLI e demais parâmetros usados por modelos de dispersão de poluentes atmosféricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O cultivo do café é uma das atividades do agronegócio de maior importância socioeconômica dentre as diferentes atividades ligadas ao comércio agrícola mundial. Uma das maiores contribuições da genética quantitativa para o melhoramento genético é a possibilidade de prever ganhos genéticos. Quando diferentes critérios de seleção são considerados, a predição de ganhos referentes a cada critério tem grande importância, pois indica os melhoristas sobre como utilizar o material genético disponível, visando obter o máximo de ganhos possível para as características de interesse. O presente trabalho foi instalado em julho de 2004, na Fazenda Experimental de Bananal do Norte, conduzida pelo Incaper, no distrito de Pacotuba, município de Cachoeiro de Itapemirim, região Sul do Estado, com o objetivo de selecionar as melhores plantas entre e dentro de progênies de meios- irmãos de Coffea canephora, por meio de diferentes critérios de seleção. Foram realizadas análises de variância individuais e conjuntas para 26 progênies de meios- irmãos Coffea canephora. O delineamento experimental utilizado foi em blocos ao acaso com quatro testemunhas adicionais com quatro repetições e parcela composta por cinco plantas, com o espaçamento de 3,0 m x 1,2 m. Neste trabalho, considerou-se os dados das últimas cinco colheitas. As características mensuradas foram: florescimento, maturação, tamanho do grão, peso, porte, vigor, ferrugem, mancha cercóspora, seca de ponteiros, escala geral, porcentagem de frutos boia e bicho mineiro. Todas as análises estatísticas foram realizadas com o aplicativo computacional em genética e estatística (GENES). Foram estimados os ganhos de seleção em função da porcentagem de seleção de 20% entre e dentro, sendo as mesmas mantidas para todas as características. Todas as características foram submetidas a seleção no sentido positivo, exceto para florescimento, porte, ferrugem, mancha cercóspora, seca de ponteiros, porcentagem de frutos boia e bicho mineiro, para obter decréscimo em suas médias originais. Os critérios de seleção estudados foram: seleção convencional entre e dentro das famílias, índice de seleção combinada, seleção massal e seleção massal estratificada. Esta dissertação é composta por dois capítulos, em que foram realizadas análises biométricas, como a obtenção de estimativas de parâmetros genéticos. Na maioria das características estudadas, verificaram-se diferenças significativas (P<0,05) para genótipos que, associados aos coeficientes de variação genotípicos e também ao coeficiente de determinação genotípico e à relação CVg/CVe, indicam a existência de variabilidade genética nos materiais genéticos para a maioria das características e condições favoráveis para obtenção de ganhos genéticos pela seleção. Essas características também foram correlacionadas. Os dados foram submetidos às análises de variância e multivariada, aplicando-se a técnica de agrupamento e UPGMA, teste de médias e estudo de correlações. Na técnica de agrupamento, foi utilizada a distância generalizada de Mahalanobis como medida de dissimilaridade, e na delimitação dos grupos, o método de Tocher. Foi encontrada diversidade genética para as características associadas à qualidade fisiológica, mobilização de reserva das sementes, dimensões e biomassa das plântulas. Quatro grupos de genótipos puderam ser formados. Peso de massa seca de sementes, redução de reserva de sementes e peso de massa seca de plântulas estão positivamente correlacionados entre si, enquanto a redução de reserva das sementes e a eficiência na conversão dessas reservas em plântulas estão negativamente correlacionadas. De acordo com os resultados obtidos, verificou-se que todas as características apresentaram níveis diferenciados de variabilidade genética e os critérios de seleção utilizados mostraram-se eficientes para o melhoramento, no qual o índice de seleção combinada é o critério de seleção que apresentou os melhores resultados em termos de ganhos, sendo indicado como critério mais apropriado para o melhoramento genético da população estudada. Nos estudos de correlações, em 70% dos casos, a correlação fenotípica foi superior à genotípica, mostrando maior influência dos fatores ambientais em relação aos genotípicos e condições propícias ao melhoramento dos diferentes caracteres. No estudo de divergência genética, observou-se que pelo agrupamento de genótipos, pela técnica de Tocher, indicou que os genótipos foram distribuídos em três grupos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A variabilidade natural dos solos torna complexo o conhecimento de suas propriedades na elaboração de projetos geotécnicos, sendo a determinação da resistência ao cisalhamento não drenada um parâmetro importante nas análises de estabilidade de solos moles. Os ensaios de laboratório de cone e palheta, não convencionais, os ensaios de campo de palheta e piezocone e os ensaios de compressão simples e triaxial não adensado e não drenado foram utilizados para mensurar a resistência não drenada de uma camada de argila marinha mole localizada na planície costeira central brasileira. Os ensaios de laboratório foram realizados em amostras indeformadas coletadas com amostradores de pistão estacionário em vertical próxima à realização dos ensaios de campo. O sítio foi investigado preliminarmente por sondagens de simples reconhecimento, sendo apresentado o perfil estratigráfico por meio de modelagem computacional. Foram também realizados ensaios para caracterização física (análise granulométrica, teor de umidade, limites de liquidez e plasticidade, densidade real dos grãos) e mineralógica (difração de raios X), e ensaios de adensamento para obtenção do histórico de tensões e classificação de qualidade das amostras indeformadas. Os valores de resistência não drenada obtidos pelos ensaios de laboratório foram comparados ao perfil contínuo de resistência determinado empiricamente pelo ensaio de piezocone, com fator de cone Nkt calibrado pelo ensaio de palheta de campo, apresentando boa concordância, com a variabilidade natural do solo influenciando de forma preponderante a qualidade das amostras na variação entre os resultados. Os valores de resistência obtidos pelos ensaios de laboratório de cone e palheta foram comparados entre si, apresentando boa compatibilidade. Ambos, quando comparados ao ensaio de palheta de campo, não apresentaram boa concordância. Os resultados de resistência obtidos pelos ensaios de compressão simples e triaxial apresentaram boa compatibilidade com os resultados do ensaio de laboratório de cone, o que não ocorreu com os resultados do ensaio de laboratório de palheta. Na comparação entre a resistência normalizada pela tensão de sobreadensamento obtida pelos diversos métodos e algumas correlações empíricas da literatura internacional, foi observado para as amostras de solo com índice de plasticidade superior a 60% boa concordância com as correlações de Mesri (1975) e Jamiolkowski et al (1985). Os ensaios não convencionais apresentaram boa confiabilidade, que aliado a simplicidade e agilidade de execução, justificam a difusão destes na prática da investigação geotécnica brasileira como método alternativo para complementar e dar suporte às estimativas de resistência não drenada de solos moles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Utilizar robôs autônomos capazes de planejar o seu caminho é um desafio que atrai vários pesquisadores na área de navegação de robôs. Neste contexto, este trabalho tem como objetivo implementar um algoritmo PSO híbrido para o planejamento de caminhos em ambientes estáticos para veículos holonômicos e não holonômicos. O algoritmo proposto possui duas fases: a primeira utiliza o algoritmo A* para encontrar uma trajetória inicial viável que o algoritmo PSO otimiza na segunda fase. Por fim, uma fase de pós planejamento pode ser aplicada no caminho a fim de adaptá-lo às restrições cinemáticas do veículo não holonômico. O modelo Ackerman foi considerado para os experimentos. O ambiente de simulação de robótica CARMEN (Carnegie Mellon Robot Navigation Toolkit) foi utilizado para realização de todos os experimentos computacionais considerando cinco instâncias de mapas geradas artificialmente com obstáculos. O desempenho do algoritmo desenvolvido, A*PSO, foi comparado com os algoritmos A*, PSO convencional e A* Estado Híbrido. A análise dos resultados indicou que o algoritmo A*PSO híbrido desenvolvido superou em qualidade de solução o PSO convencional. Apesar de ter encontrado melhores soluções em 40% das instâncias quando comparado com o A*, o A*PSO apresentou trajetórias com menos pontos de guinada. Investigando os resultados obtidos para o modelo não holonômico, o A*PSO obteve caminhos maiores entretanto mais suaves e seguros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mapas Conceituais são representações gráficas do conhecimento de uma pessoa num dado momento e área de conhecimento. Por sua natureza investigativa, são utilizados como ferramentas de apoio em abordagens pedagógicas que objetivam promover a aprendizagem significativa. No entanto, o processo de avaliação de um mapa tende a ser custoso pois acarreta uma pesada carga de processamento cognitivo por parte do avaliador, já que este precisa mapear os conceitos e relações em busca de nuances de conhecimento alí presentes. Essa pesquisa tem por objetivo aumentar o nível de abstração nas interações entre o avaliador e os mapas conceituais fornecendo uma camada intermediária de inteligência computacional que favoreça a comunicação por meio de perguntas e respostas em linguagem natural, fornecendo ao avaliador ferramentas que lhe permita examinar o conteúdo do mapa conceitual sem exigir deste o mapeamento visual dos conceitos e relações presentes nos mapas avaliados. Uma ferramenta é prototipada e uma prova de conceito apresentada. A análise da arquitetura proposta permitiu definir uma arquitetura final com características que permitem potencializar o uso de mapas conceituais e facilitar diversas operações pedagógicas com estes. Essa pesquisa situa-se na área de investigação de sistemas de perguntas e resposta, aplicando técnicas de processamento de linguagem natural para análise da pergunta e interpretação do mapa conceitual e aplica técnica de inteligência artificial para inferir respostas às perguntas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda por água do setor agrícola vem crescendo a cada ano, bem como o aperfeiçoamento do manejo da irrigação. Ainda assim, em locais onde a água encontra-se escassa, os conflitos entre usos e usuários devido a disputas para acesso à água tendem a se intensificar. Na maioria das vezes esse problema está relacionado à ausência de cobertura florestal, levando, por vezes, a problemas socioambientais. Nesse contexto, a pesquisa buscou avaliar o impacto da implantação de sistemas agroflorestais (SAF’s) irrigados na condição hídrica local (de escassez), estabelecendo-se estratégias que os torne atrativos ambientalsocial- e economicamente. Assim, por meio de simulação computacional, alternativas de consórcios agroflorestais foram avaliadas, tomando-se como referência uma região piloto, típica da agricultura espírito-santense, constituída por pequenas propriedades agrícolas de base familiar, inseridas parcialmente em APPs. As espécies banana, pupunha e goiaba foram selecionadas para compor os cenários agroflorestais. Os resultados da pesquisa mostram que os SAF’s irrigados são uma alternativa no sentido de minimizar os conflitos por demandas de água em regiões de escassez hídrica, com a redução de tais demandas o comprometimento de rendimentos financeiros. Além disso, os SAF’s são alternativas para diversificação da renda e para tentar controlar a sazonalidade dos preços de mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, analisamos aspectos relacionados a como a tecnologia computacional é utilizada no Atendimento Educacional Especializado (AEE) e como se deu a formação de professores para utilizar esses recursos. Para tanto, delimitamos os seguintes objetivos específicos: investigar a utilização da tecnologia assistiva (TA) computacional no âmbito das salas de recursos multifuncionais (SRM); problematizar as tensões, dificuldades e possibilidades relacionadas à TA com ênfase na tecnologia computacional para o AEE; analisar a formação do professor de educação especial para o AEE tendo como recurso a TA com ênfase na tecnologia computacional, visando à mediação dos processos de aprendizagem. O aporte teórico deste trabalho foi a abordagem histórico-cultural, tomando por referência os estudos de Vigotski e seus colaboradores. Trata-se de uma pesquisa qualitativa que fez uso de diferentes instrumentos metodológicos como, os grupos focais, o questionário online e a entrevista semiestruturada. Para desenvolvê-lo, realizamos a coleta de dados em diferentes contextos, começando pelos grupos focais da pesquisa inaugural do Oneesp, que serviram como dispositivo para esta pesquisa, seguida da aplicação de um questionário aos professores participantes da pesquisa-formação desenvolvida como um desdobramento no estado do Espírito Santo da pesquisa inaugural do Oneesp pelos integrantes do Oeeesp e da aplicação in loco de entrevistas semiestruturadas com professores de educação especial, de uma SRM do Tipo II. Foram oitenta e nove professores participantes na pesquisa do Oneesp, trinta professores na pesquisa-formação do Oeeesp e dois professores para aplicação da entrevista semiestruturada in loco, respectivamente. Esses dois professores participaram tanto da pesquisa do Oneesp como da pesquisa do Oeeesp. Analisamos esses três momentos, dos quais emergiram os apontamentos que nos proporcionaram pensar, com base nas narrativas orais e escritas dos professores: sua formação para uso da TA computacional; seu entendimento sobre sua formação para este fim; seus anseios por uma formação mais direcionada; a forma como utilizam a tecnologia na sala de recursos; seus entendimentos sobre as dificuldades e possibilidades relacionadas a TA com ênfase na tecnologia computacional para o AEE. Após essas análises, concluímos que poucos professores que atuam nas SRM tiveram uma formação que possibilitasse a aplicação das tecnologias computacionais em sua mediação pedagógica, aliando teoria e prática, com momentos de formação que privilegiassem os momentos presenciais e em laboratórios, onde possam interagir com os computadores e suas ferramentas simbólicas. Sem essa familiaridade com os recursos computacionais, os professores acabam sentindo-se inseguros para utilizá-los, deixando de potencializar, pela via desses recursos, os processos de ensinoaprendizagem do aluno com deficiência. Faz-se necessário um investimento nesse tipo de formação e, mais do que isso, que se viabilize para os professores que atuam ou que pretendem atuar nas SRM. A partir de uma formação apropriada é possível fazer com que os professores utilizem os recursos computacionais como mediadores dos processos de ensino-aprendizagem de seus alunos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study is focused on the establishment of relationships between the injection moulding processing conditions, the applied thermomechanical environment (TME) and the tensile properties of talc-filled polypropylene,adopting a new extended concept of thermomechanical indices (TMI). In this approach, TMI are calculated from computational simulations of the moulding process that characterise the TME during processing, which are then related to the mechanical properties of the mouldings. In this study, this concept is extended to both the filling and the packing phases, with new TMI defined related to the morphology developed during these phases. A design of experiments approach based on Taguchi orthogonal arrays was adopted to vary the injection moulding parameters (injection flow rate, injection temperature, mould wall temperature and holding pressure), and thus, the TME. Results from analysis of variance for injection-moulded tensile specimens have shown that among the considered processing conditions, the flow rate is the most significant parameter for the Young’s modulus; the flow rate and melt temperature are the most significant for the strain at break; and the holding pressure and flow rate are the most significant for the stress at yield. The yield stress and Young’s modulus were found to be governed mostly by the thermostress index (TSI, related to the orientation of the skin layer), whilst the strain at break depends on both the TSI and the cooling index (CI, associated to the crystallinity degree of the core region). The proposed TMI approach provides predictive capabilities of the mechanical response of injection-moulded components, which is a valuable input during their design stage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work the critical indices β, γ , and ν for a three-dimensional (3D) hardcore cylinder composite system with short-range interaction have been obtained. In contrast to the 2D stick system and the 3D hardcore cylinder system, the determined critical exponents do not belong to the same universality class as the lattice percolation,although they obey the common hyperscaling relation for a 3D system. It is observed that the value of the correlation length exponent is compatible with the predictions of the mean field theory. It is also shown that, by using the Alexander-Orbach conjuncture, the relation between the conductivity and the correlation length critical exponents has a typical value for a 3D lattice system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, we consider the numerical solution of a large eigenvalue problem resulting from a finite rank discretization of an integral operator. We are interested in computing a few eigenpairs, with an iterative method, so a matrix representation that allows for fast matrix-vector products is required. Hierarchical matrices are appropriate for this setting, and also provide cheap LU decompositions required in the spectral transformation technique. We illustrate the use of freely available software tools to address the problem, in particular SLEPc for the eigensolvers and HLib for the construction of H-matrices. The numerical tests are performed using an astrophysics application. Results show the benefits of the data-sparse representation compared to standard storage schemes, in terms of computational cost as well as memory requirements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A hierarchical matrix is an efficient data-sparse representation of a matrix, especially useful for large dimensional problems. It consists of low-rank subblocks leading to low memory requirements as well as inexpensive computational costs. In this work, we discuss the use of the hierarchical matrix technique in the numerical solution of a large scale eigenvalue problem arising from a finite rank discretization of an integral operator. The operator is of convolution type, it is defined through the first exponential-integral function and, hence, it is weakly singular. We develop analytical expressions for the approximate degenerate kernels and deduce error upper bounds for these approximations. Some computational results illustrating the efficiency and robustness of the approach are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: Regulating mechanisms of branching morphogenesis of fetal lung rat explants have been an essential tool for molecular research. This work presents a new methodology to accurately quantify the epithelial, outer contour and peripheral airway buds of lung explants during cellular development from microscopic images. Methods: The outer contour was defined using an adaptive and multi-scale threshold algorithm whose level was automatically calculated based on an entropy maximization criterion. The inner lung epithelial was defined by a clustering procedure that groups small image regions according to the minimum description length principle and local statistical properties. Finally, the number of peripheral buds were counted as the skeleton branched ends from a skeletonized image of the lung inner epithelial. Results: The time for lung branching morphometric analysis was reduced in 98% in contrast to the manual method. Best results were obtained in the first two days of cellular development, with lesser standard deviations. Non-significant differences were found between the automatic and manual results in all culture days. Conclusions: The proposed method introduces a series of advantages related to its intuitive use and accuracy, making the technique suitable to images with different lightning characteristics and allowing a reliable comparison between different researchers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Regulating mechanisms of branchingmorphogenesis of fetal lung rat explants have been an essential tool formolecular research.This work presents a new methodology to accurately quantify the epithelial, outer contour, and peripheral airway buds of lung explants during cellular development frommicroscopic images. Methods.Theouter contour was defined using an adaptive and multiscale threshold algorithm whose level was automatically calculated based on an entropy maximization criterion. The inner lung epithelium was defined by a clustering procedure that groups small image regions according to the minimum description length principle and local statistical properties. Finally, the number of peripheral buds was counted as the skeleton branched ends from a skeletonized image of the lung inner epithelia. Results. The time for lung branching morphometric analysis was reduced in 98% in contrast to themanualmethod. Best results were obtained in the first two days of cellular development, with lesser standard deviations. Nonsignificant differences were found between the automatic and manual results in all culture days. Conclusions. The proposed method introduces a series of advantages related to its intuitive use and accuracy, making the technique suitable to images with different lighting characteristics and allowing a reliable comparison between different researchers.