1000 resultados para Análise computacional
Resumo:
A escrita é uma atividade complexa que envolve a interação constante de processos cognitivos e motores. As crianças passam grande parte do tempo a escrever em contexto escolar, aplicando também esta habilidade noutros contextos. As dificuldades de escrita ao nível da legibilidade e velocidade possuem um impacto negativo nos diferentes contextos de vida das crianças. Esta tese teve como objetivo estudar as competências de escrita em crianças no 3º ano de escolaridade, período em que é alcançada uma automatização da escrita. Começou-se por traduzir, adaptar culturalmente e validar para o Português Europeu dois instrumentos que são internacionalmente utilizados no diagnóstico da Disgrafia e da Perturbação do Desenvolvimento da Coordenação (PDC): Movement Assessment Battery for Children – 2nd edition (MABC-2) e Echelle d’évaluation rapide de l’écriture chez l’enfant (BHK). Os instrumentos revelaram ser fidedignos e com solidez suficiente para a sua aplicação. Prosseguiu-se com a exploração da relação entre as competências de escrita e a coordenação motora. Não foi encontrada relação entre qualidade e velocidade de escrita e coordenação motora fina, nem qualquer associação entre qualidade e velocidade de escrita. Na diferença de desempenhos entre rapazes e raparigas, estas revelaram melhores resultados apenas na tarefa de colocação de pinos com a mão preferida. Verificou-se que a formação de letras é o fator que mais contribui para explicar os desempenhos na qualidade de escrita. Através de análise computacional conseguiu-se dar os primeiros passos para o estabelecimento de um padrão de legibilidade, com a caracterização espacial das letras. No entanto, não foi encontrada relação entre as características espaciais e a qualidade de escrita. No final desta tese, relatam-se as limitações dos procedimentos adotados e sugerem-se futuros desafios de investigação dos fenómenos inerentes a esta temática.
Resumo:
Estimativas de vazão máxima de escoamento superficial são necessárias para o projeto de obras hidráulicas em bacias urbanas e rurais. A dificuldade em aplicar os procedimentos disponíveis para calcular a variação do escoamento superficial com o tempo e de seu valor máximo deve-se à inexatidão dos métodos usados para esse objetivo e à variabilidade nos resultados que podem ser obtidos por profissionais que usem o mesmo procedimento. Dessa forma, a investigação de um método que produza estimativas confiáveis da vazão máxima e do hidrograma de escoamento superficial é de grande interesse. Neste trabalho, desenvolveu-se e avaliou-se a sensibilidade de um software (HIDROGRAMA 2.1) que permite a obtenção do hidrograma de escoamento superficial, da vazão máxima e seu tempo de ocorrência, da altura e da velocidade máximas do escoamento, do volume e da lâmina de escoamento superficial em encosta e em canais. O modelo apresentou grande sensibilidade ao período de retorno, à taxa de infiltração estável e ao comprimento da encosta e do canal.
Resumo:
Apresenta-se um sistema computacional, denominado ICADPLUS, desenvolvido para elaboração de banco de dados, tabulação de dados, cálculo do índice CPO e análise estatística para estimação de intervalos de confiança e comparação de resultados de duas populações.Tem como objetivo apresentar método simplificado para atender necessidades de serviços de saúde na área de odontologia processando fichas utilizadas por cirurgiões dentistas em levantamentos epidemiológicos de cárie dentária. A característica principal do sistema é a dispensa de profissional especializado na área de odontologia e computação, exigindo o conhecimento mínimo de digitação por parte do usuário, pois apresenta "menus" simples e claros como também relatórios padronizados, sem possibilidade de erro. Possui opções para fichas de CPO segundo Klein e Palmer, CPO proposto pela OMS, CPOS segundo Klein, Palmer e Knutson, e ceo. A validação do sistema foi feita por comparação com outros métodos, permitindo recomendar sua adoção.
Resumo:
In this paper we review the basic techniques of performance analysis within the UNIX environment that are relevant in computational chemistry, with particular emphasis on the execution profile using the gprof tool. Two case studies (in ab initio and molecular dynamics calculations) are presented in order to illustrate how execution profiling can be used to effectively identify bottlenecks and to guide source code optimization. Using these profiling and optimization techniques it was possible to obtain significant speedups (of up to 30%) in both cases.
Resumo:
Estimativas de vazão máxima de escoamento superficial são necessárias para o projeto de obras hidráulicas em bacias urbanas e rurais. A dificuldade em aplicar os procedimentos disponíveis para calcular a variação do escoamento superficial com o tempo e de seu valor máximo deve-se à inexatidão dos métodos usados para esse objetivo e à variabilidade nos resultados que podem ser obtidos por profissionais que usem o mesmo procedimento. Dessa forma, a investigação de um método que produza estimativas confiáveis da vazão máxima e do hidrograma de escoamento superficial é de grande interesse. Neste trabalho, desenvolveu-se e avaliou-se a sensibilidade de um software (HIDROGRAMA 2.1) que permite a obtenção do hidrograma de escoamento superficial, da vazão máxima e seu tempo de ocorrência, da altura e da velocidade máximas do escoamento, do volume e da lâmina de escoamento superficial em encosta e em canais. O modelo apresentou grande sensibilidade ao período de retorno, à taxa de infiltração estável e ao comprimento da encosta e do canal.
Resumo:
Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.
Resumo:
A concorrência nos mercados locais e internacionais tem levado as empresas a tomarem-se cada vez mais competitivas e atentas as mud3nças no mercado, possibilitando-Ihes melhorias em seus processos produtivos. Este trabalho apresenta a modelagem e análise de melhorias no processo produtivo de uma empresa de montagem de câmaras de bronzeamento. A simulação computacional foi utilizada como ferramenta de análise das possíveis oportunidades de melhorias a serem introduzidas no processo produtivo. O processo original foi modelado com o objetivo de identificar e caracterizar a distribuição de tempos e utilização dos equipamentos e rerorsos presentes no processo produtivo da empresa. Diferentes propostas de melhorias foram investigadas e uma nova modelagem do processo foi sugerida, considerando exigências do mercado e características do processo produtivo empresarial. Comparações matemáticas entre os resultados foram elaboradas e as conclusões sobre o estudo são apresentadas ao final do trabalho. Os resultados da simulação estão sendo usados para avaliar possíveis alterações no processo produtivo da empresa, bem como para gerar documentos que registram conhecimento corporativo sobre possíveis arranjos na produção.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
Neste trabalho apresenta-se a implementação da matriz de amortecimento viscoelástica para um programa computacional de análise de cascas laminadas de materiais compósitos. A formulação apresentada permite realizar análises dinâmicas de estruturas laminadas com a consideração do efeito do amortecimento para dois modelos diferentes: Kelvin e Zener. A matriz de amortecimento foi implementada de duas formas: proporcional à massa ou proporcional à rigidez. A equação do movimento do sistema dinâmico foi resolvida utilizando-se o método de Newmark para integração direta. Para o modelo Zener foi desenvolvida uma análise para um elemento com 1 grau de liberdade. Apresentam-se exemplos de aplicações da formulação para modelos viscosos, implementadas no programa de elementos finitos, submetidos a diferentes tipos de carregamentos, como carga distribuída e cargas de impacto com diferentes tipos de excitações. Comparações entre o comportamento dos modelos Kelvin e Zener foram realizadas para validar os resultados obtidos.
Resumo:
O presente trabalho consiste na aplicação da simulação computacional como método de aprofundamento do estudo de mecanismos de leilões aplicados na alocação do direito de exploração das reservas de petróleo da camada do pré-sal. A camada do pré-sal está localizada na costa brasileira e apresenta um grande potencial em termos de reserva de óleo e gás. A função lance aplicada para os participantes criados computacionalmente foi estimada com base em dados experimentais e segue uma função exponencial. A simulação possibilita reproduzir o modelo de leilão considerando todas as características e parâmetros dos experimentos sem incorrer no custo da realização de novas sessões de leilão com participantes reais. Os leilões estudados foram o leilão de valores privados de 1° preço e o leilão de valores privados de 2° preço. Através dos resultados obtidos identificou-se que o leilão de valores privados de 1° preço é menos arriscado que o leilão de valores privados de 2° preço; no leilão com simetria, o Princípio de Equivalência de Receita é válido; a eficiência observada é menor em leilões assimétricos; o leilão de 2° preço comparado com o de 1° preço apresenta um tradeoff entre a eficiência e a receita do governo; e que considerando o aprendizado dos participantes, não se observam alterações significativas nas estatísticas analisadas à medida que os participantes se tornam mais experientes.