1000 resultados para Algoritmos quase-analíticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A abordagem de Modelos Baseados em Agentes é utilizada para trabalhar problemas complexos, em que se busca obter resultados partindo da análise e construção de componentes e das interações entre si. Os resultados observados a partir das simulações são agregados da combinação entre ações e interferências que ocorrem no nível microscópico do modelo. Conduzindo, desta forma, a uma simulação do micro para o macro. Os mercados financeiros são sistemas perfeitos para o uso destes modelos por preencherem a todos os seus requisitos. Este trabalho implementa um Modelo de Mercado Financeiro Baseado em Agentes constituído por diversos agentes que interagem entre si através de um Núcleo de Negociação que atua com dois ativos e conta com o auxílio de formadores de mercado para promover a liquidez dos mercados, conforme se verifica em mercados reais. Para operação deste modelo, foram desenvolvidos dois tipos de agentes que administram, simultaneamente, carteiras com os dois ativos. O primeiro tipo usa o modelo de Markowitz, enquanto o segundo usa técnicas de análise de spread entre ativos. Outra contribuição deste modelo é a análise sobre o uso de função objetivo sobre os retornos dos ativos, no lugar das análises sobre os preços.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este material contém a apostila “Construção de algoritmos” da disciplina Algoritmos e programação I do curso de Sistemas de informação. O conteúdo programático a ser abordado é composto de 11 unidades, sendo: “Unidade 1: Conceitos básicos sobre algoritmos”; “Unidade 2: Conceitos básicos para o desenvolvimento de algoritmos”; “Unidade 3: Expressões algorítmicas”; “Unidade 4: Estratégia de desenvolvimento de algoritmos”; “Unidade 5: Comandos condicionais”; “Unidade 6: Comandos de repetição”; “Unidade 7: Ponteiros”; “Unidade 8: Estruturas compostas heterogêneas: registros”; “Unidade 9: Sub-rotinas”; “Unidade 10: Estruturas compostas homogêneas: arranjos”; “Unidade 11: Estruturas compostas mistas: homogêneas e heterogêneas”. O material possui figuras ilustrativas, algoritmos usados como exemplos e tabelas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este material traz a definição de matemática discreta, tendo como objetivo desenvolver e complementar o ferramental matemático básico do aluno para o aprendizado da computação. Apresenta a diferença de matemática contínua e matemática discreta. As disciplinas de Matemática Discreta estão presentes em todos os cursos de computação, devido à sua importância para quase todas as áreas da computação, principalmente construção de algoritmos, linguagens de programação e compiladores. A matemática como um todo oferece ferramentas para modelar e solucionar diversos problemas do mundo real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vídeo de introdução ao tema Análise de algoritmos. Neste vídeo são expostos os objetivos principais da análise de algoritmos, apresentando ao aluno o que é a análise de algoritmos e o que é a análise assintótica. É apresentado também o propósito da análise de algoritmos, a saber, para comparar dois ou mais algoritmos que fazem a mesma tarefa e decidir qual é o melhor. Para este tema, é apresentada a definição matemática relacionada ao assunto e também alguns exemplos visuais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Versão acessível do vídeo com audiodescrição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A videoaula traz uma visão geral, conceitos e principais características dos algorítimos computacionais. Algoritmos correspondem a uma sequencia finita de ações que, quando executadas, levam à solução de um problema em um tempo finito. A partir de um problema, passa-se pela aplicação de uma sequência de ações e no final o problema é resolvido. Algoritmos possuem como características a execução sequencial das instruções; cada instrução é executada por completo antes de se proceder para a próxima, não sendo ambíguas e dependentes de interpretação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A videoaula traz uma introdução sobre análise de algoritmos e análise assintótica. A análise de algoritmos possibilita a compreensão do comportamento do algoritmo quando há muito o que processar, e a comparação entre algoritmos diferentes que resolvem um mesmo problema. A análise é feita por causa do tempo de execução, sendo possível fazer uma análise pelo espaço requerido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A videoaula traz exemplos sobre análise de algoritmos, explanando sobre a análise de trechos com tempo constante, análise de trechos com repetições de incremento constante, e análise de trechos com multiplicação ou divisão do controle de repetição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação defendemos uma forma nova de medir o produto de software com base nas medidas usadas na teoria dos sistemas complexos. Consideramos o uso dessas medidas vantajoso em relação ao uso das medidas tradicionais da engenharia de software. A inovação desta dissertação sintetiza-se em considerar o produto de software como um sistema complexo, dotado de uma estrutura que comporta vários níveis e na proposta da correlação de gama longa como medida da complexidade de estrutura de programas fontes. Essa medida, invariante para a escala de cada nível da estrutura, pode ser calculada automaticamente. Na dissertação, primeiro descrevemos o processo de desenvolvimento do software e as medidas existentes para medir o referido processo e produto e introduzimos a teoria dos sistemas complexos. Concluímos que o processo tem características de sistema complexo e propomos que seja medido como tal. Seguidamente, estudamos a estrutura do produto e a dinâmica do seu. processo de desenvolvimento. Apresentamos um estudo experimental sobre algoritmos codificados em C, que usamos para validar hipóteses sobre a complexidade da estrutura do produto. Propomos a correlação de gama longa como medida da complexidade da estrutura. Estendemos essa medida a uma amostra codificada em Java. Concluímos, evidenciando as limitações e as potencialidades dessa medida e a sua aplicação em Engenharia de Software.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This master dissertation presents the study and implementation of inteligent algorithms to monitor the measurement of sensors involved in natural gas custody transfer processes. To create these algoritmhs Artificial Neural Networks are investigated because they have some particular properties, such as: learning, adaptation, prediction. A neural predictor is developed to reproduce the sensor output dynamic behavior, in such a way that its output is compared to the real sensor output. A recurrent neural network is used for this purpose, because of its ability to deal with dynamic information. The real sensor output and the estimated predictor output work as the basis for the creation of possible sensor fault detection and diagnosis strategies. Two competitive neural network architectures are investigated and their capabilities are used to classify different kinds of faults. The prediction algorithm and the fault detection classification strategies, as well as the obtained results, are presented

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Innumerable studies have focused been reported on the sleep spindles (SS), Sharp Vertex Waves (SVW) and REM, NREM Sleep as indicators interpreting EEG patterns in children. However, Frequency and Amplitud Gradient (FAG) is rarely cited sleep parameter in children,that occurs during NREM Sleep. It was first described by Slater and Torres, in 1979, but has not been routinely evaluated in EEG reports. The aim of this study was to assess the absence of SS, SVW and FAG, as an indication of neurological compromise in children. The sample consisted of 1014 EEGs of children referred to the Clinical Neurophysiology Laboratory, Hospital Universitário de Brasília (HUB), from January 1997 to March 2003, with ages ranging from 3 months to 12 years old, obtained in spontaneous sleep or induced by choral hydrate. The study was transversal and analytical, in which, visual analysis of EEG traces was perfumed individually and independently by two electroencephalographers without prior knowledge of the EEG study or neurological findings. After EEG selection, the investigators analyzed the medical reports in order to define and correlate neurological pattern was classified according to the presence or absence of neurological compromise, as Normal Neurological Pattern (NNP), and Altered Neurological Pattern (ANP) respectively. From the visual analysis of the EEG(s), it was possible to characterize 6 parameters: 1- FAG present (64,1%); 2- FAG absent (35,9%); 3 - normal SS (87,9%); 4 - altered SS s (12,1%); 5 - normal SVW s (95,7%); 6 - altered SVW s (4,3%). The prevalence of well-formed FAG is found in the 3 months to 5 years age group in the children with NNF. FAG was totally absent from the age of 10 years. When comparing the three sleep graphielements, it was observed that SVW and SS were predominant in children with NNF. However, FAG absent was more prevalent in the ANF than in altered SS an SVW. The statistical analysis showed that there is a strong association of FAG absent, with isolated alteration, in ANF patients, in that the prevalence ratio was 6,60. The association becomes stronger when FAG absent + altered SS(s) is considered (RP= 6,68). Chi-square test, corrected by Yates technique, showed a highly significant relation for FAG ρ= 0,00000001, for error X of 5%, or else the 95% confidence interval (ρ<0,05). Thus, the FAG absent were more expressive in ANF patient than altered SS(s) and SVW(s). The association becomes stronger in order to establish a prognostic relation, when the FAG is combined with the SS. The results os this study allow us to affirm that the FAG, when absent at ages ranging from 3 months to 5 years , is an indication of neurological compromise. FAG is an age-dependent EEG parameter and incorporated systematically, in the interpretation criteria of the EEG of children s sleep, not only in the maturational point of view, but also neurological disturbances with encephalic compromise

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tuberculosis is a serious disease, but curable in practically 100% of new cases, since complied the principles of modern chemotherapy. Isoniazid (ISN), Rifampicin (RIF), Pyrazinamide (PYR) and Chloride Ethambutol (ETA) are considered first line drugs in the treatment of tuberculosis, by combining the highest level of efficiency with acceptable degree of toxicity. Concerning USP 33 - NF28 (2010) the chromatography analysis to 3 of 4 drugs (ISN, PYR and RIF) last in average 15 minutes and 10 minutes more to obtain the 4th drug (ETA) using a column and mobile phase mixture different, becoming its industrial application unfavorable. Thus, many studies have being carried out to minimize this problem. An alternative would use the UFLC, which is based with the same principles of HPLC, however it uses stationary phases with particles smaller than 2 μm. Therefore, this study goals to develop and validate new analytical methods to determine simultaneously the drugs by HPLC/DAD and UFLC/DAD. For this, a analytical screening was carried out, which verified that is necessary a gradient of mobile phase system A (acetate buffer:methanol 94:6 v/v) and B (acetate buffer:acetonitrile 55:45 v/v). Furthermore, to the development and optimization of the method in HPLC and UFLC, with achievement of the values of system suitability into the criteria limits required for both techniques, the validations have began. Standard solutions and tablets test solutions were prepared and injected into HPLC and UFLC, containing 0.008 mg/mL ISN, 0.043 mg/mL PYR, 0.030 mg.mL-1 ETA and 0.016 mg/mL RIF. The validation of analytical methods for HPLC and UFLC was carried out with the determination of specificity/selectivity, analytical curve, linearity, precision, limits of detection and quantification, accuracy and robustness. The methods were adequate for determination of 4 drugs separately without interfered with the others. Precise, due to the fact of the methods demonstrated since with the days variation, besides the repeatability, the values were into the level required by the regular agency. Linear (R> 0,99), once the methods were capable to demonstrate results directly proportional to the concentration of the analyte sample, within of specified range. Accurate, once the methods were capable to present values of variation coefficient and recovery percentage into the required limits (98 to 102%). The methods showed LOD and LOQ very low showing the high sensitivity of the methods for the four drugs. The robustness of the methods were evaluate, facing the temperature and flow changes, where they showed robustness just with the preview conditions established of temperature and flow, abrupt changes may influence with the results of methods