754 resultados para Modelado


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho situa-se a partir dos acréscimos do pensamento cientifico moderno, que em função dos estudos do processo verbal da comunicação humana, visa, agora, um pouco mais adiante, o estudo de seu processo não verbal, onde se sanam velhas dúvidas e propõem-se novos questionamentos acerca da figura Homem. O trabalho analisará as duas dimensões existenciais que o homem estabelece com o mundo: a dimensão verbal, quando da sua apreensão da "imagem de mundo", dentro de suas características psico-linguísticas e a dimensão não-verbal que sobredetermina esta "imagem de mundo", dentro do aspecto psico-biológico do ser. A postulação de uma existência verbal e de uma existência não-verbal, não poderia ser entendida como duas ordens diferentes e antagônicas, mas como duas modalidades de manifestação da existencialidade: o indivíduo participa simultaneamente das duas, como identidade e diferença. E é sob este aspecto que, a sala de aula se revelaria como um micro-universo, cujas coordenadas básicas, informação/formação, articulariam, de fato, as coordenadas existenciais identidade/diferença. Acrescentaria-se, finalmente, que a partir da sala de aula, o indivíduo modelaria a sua realidade conceitual, sendo ao mesmo tempo, por ela modelado. Tal processo se desenvolveria à medida em que o indivíduo reelaborasse a realidade objetiva como sujeito do discurso e seria modelado, à medida em que se deixasse objetivar e impessoalizar-se no discurso cultural. A partir então deste jogo maior do homem, onde se ajustariam as duas dimensões existenciais, que o equilíbrio psico-social do individuo se tentaria, garantindo a sua sobrevivência. Seria desta forma, o espaço sala de aula, franquia maior da individualidade, um campo aberto a educadores e psicologos, fazendo uso mais profilatico que terapêutico ao ajuste do homem a seu grupo e/ou um pouco mais, ao seu próprio sentido humano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As exigências sociais atuais levam ao repensar das ações educacionais, evidenciando a Educação a Distância (EAD). Esta modalidade de educação, embasada por concepções pedagógicas consistentes e associada às tecnologias de informática e comunicação, é capaz de alavancar novos modelos rompendo com os já estabelecidos. As tecnologias de workflow se apresentam como uma alternativa à modelagem de cursos para EAD. Um workflow permite organizar e descrever todo o processo que está sendo modelado, a partir de suas atividades. Da mesma forma modelos de construção de cursos para EAD sugerem a separação do processo em etapas compostas por atividades. A autoria destes cursos acontece por meio de equipes multidisciplinares atuando em trabalho cooperativo. A cooperação na equipe de autoria é fundamentada pelos requerimentos de apoio à sua efetividade, de acordo com os comportamentos e funcionalidades cooperativas. No trabalho de Sizilio é sugerida a utilização de um workflow para guiar as atividades de autoria de um curso para EAD. Note-se que o workflow de autoria proposto por Sizilio considera apenas um autor para a construção do curso, não contemplando a autoria feita por uma equipe de autores desempenhando um trabalho cooperativo. O objetivo desta dissertação é especificar um workflow de autoria de cursos para EAD com suporte à cooperação, a partir do workflow de Sizilio. Este workflow constitui um modelo formal de construção cooperativa de cursos nesta modalidade educacional. O trabalho apresenta, além da proposta do workflow de autoria de cursos para EAD com suporte à cooperação, fundamentos e particularidades da EAD sob a ótica da autoria de cursos. Analisa, ainda, a cooperação vislumbrando as equipes de autoria em trabalho cooperativo e a tecnologia de modelagem de workflow aplicada a cursos de EAD. A análise de viabilidade do workflow proposto e do suporte oferecido ao desenvolvimento cooperativo de um curso foi feita através de estudo de caso real, sendo apresentados os comentários do grupo envolvido na autoria do curso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Realizou-se a dedução de um formalismo básico, útil para o desenvolvimento de novas implementações semi-empíricas, partindo de primeiros princípios. A abordagem utilizada é inspirada nos métodos da família HAM, e visa possibilitar o desenvolvimento de uma implementação semi-empírica de última geração que não esteja sujeita às di culdades que ocorrem com métodos da família ZDO. São apresentadas as expressões para a energia total e para os elementos da matriz de Fock segundo este formalismo básico. O emprego de expoentes variáveis nas funções de base (orbitais atômicos) é proposto e modelado com esquemas tipo HAM/3, HAM/4 e polinomial, tomando-se como referência resultados obtidos por cálculo ab initio. Além disso, uma contribuição para produção de conjuntos de dados de referência por cálculo ab initio é fornecida. Esta contribuição permite que sejam produzidos resultados de alto nível para energias eletrônicas a um custo computacional moderado, por meio da extrapola- ção da energia de correlação eletrônica em cálculos com bases correlation consistent de Dunning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo tem como questão central o debate sobre as características do processo de globalização e das implicações sociais que dele decorrem para a esfera local. O argumento desenvolvido na análise é de que o processo de globalização seria modelado não apenas por diferentes contextos institucionais, mas também por recursos e por estratégias dos atores sociais implicados. Se, por um lado, o processo de globalização significaria a imposição de novas formas tecnológicas e organizacionais e de novas regras econômicas, por outro lado, interagiria com conjunturas políticas e de mercado, com os diferentes recursos dos atores sociais e com valores e ideologias locais, configurando realidades diversas e processos contraditórios de mudança social. Neste sentido, as mudanças decorrentes da presença de agentes globais conteriam, potencialmente, riscos e oportunidades cuja realização dependeria da capacidade dos atores locais de interagir com aquelas forças e agentes. As relações de poder entre atores globais e locais seriam assimétricas, submetendo estes a intensas e inesperadas mudanças que podem ser traumáticas. Contudo, os atores locais tenderiam a reagir, nas possibilidades de seus recursos e nos horizontes de seus valores, às novas regras e condições, tentando criar alternativas e, com isso, beneficiar-se das novas relações que se estabelecem. Ao sublinhar a complexidade, a contingência e a diversidade das relações global-local, o enfoque teórico-interpretativo adotado no estudo questiona argumentos de que a globalização decorre puramente da “lógica” ou dos “interesses do capital” ou de que as forças da globalização estimulariam integração econômica e social, com efeitos homogêneos. A questão das relações global-local é discutida mediante a análise da instalação, no ano de 2000, do novo pólo automobilístico de Gravataí (RS) – liderado por uma unidade montadora da General Motors do Brasil (GMB) - e de seus reflexos na reestruturação do processo produtivo e nas relações de trabalho e de emprego em empresas fornecedoras locais. A despeito de, no caso em estudo, a GMB não desenvolver programas de apoio à capacitação de fornecedores e de as instituições locais mostrarem-se tímidas e seletivas relativamente a essa tarefa, a montadora requer novos padrões de escala de compras, de qualidade dos componentes, de custos e preços e de valor agregado ao produto, que tendem a estimular a expansão das atividades, a reestruturação do processo produtivo e a flexibilização das relações de trabalho e de emprego, em empresas locais. Ademais, as mudanças verificadas nas empresas locais tendem a assumir diferentes trajetórias que variam de acordo com os seus recursos e estratégias (capital, tipo de produto e tecnologia, experiência no mercado global). Tais constatações autorizam concluir que o processo de globalização é uma imposição, porém, ele não se desenvolve de maneira unilateral, nem produz efeitos homogêneos sobre os atores locais, requerendo destes o aprendizado sobre como mover-se nessa nova realidade e dela obter benefícios coletivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As pesquisas sobre governança no sistema financeiro contribuem significativamente para a análise dos diversos elementos que influenciam a performance nesse setor. No entanto, estudos empíricos nessa área ainda são limitados. Um dos motivos é a complexidade inerente à noção de governança na área pública. Da mesma forma que os sistemas complexos, a governança pode ser descrita como um sistema que abrange um grande número de entidades interdependentes entre si, com diferentes graus de relacionamentos. Neste trabalho de pesquisa, o significado de governança regulamentar do SFN se insere nesse escopo de entendimento, isto é, a governança como um fenômeno que resulta das diversas interações existentes entre os atores que influenciam ou são influenciados pelas atividades de regulação do setor financeiro. Em função das especificidades dos sistemas complexos, desenvolve-se e implementa-se um modelo baseado em agentes para a análise da governança regulamentar do SFN mediante experimentos de simulação. Os modelos baseados em agentes possibilitam explicitar aspectos relativos às interações e comportamentos dos agentes (nível micro), ou seja, os comportamentos não-lineares do sistema, que são difíceis de serem capturados com outros formalismos matemáticos. O modelo baseado em agentes é integrado a um modelo econométrico que tem como função caracterizar o ambiente macro-econômico. O ambiente micro é modelado por intermédio de agentes computacionais, com o uso da arquitetura BDI (do inglês, beliefs-desires-intentions). Esses agentes interagem entre si e com o ambiente, possuem crenças sobre o meio onde atuam e desejos que querem satisfazer, levando-os a formar intenções para agir. O comportamento dos agentes foi modelado utilizando-se lógica difusa (fuzzy logic), com o uso de regras construídas por intermédio de pesquisa de análise de conteúdo, a partir de informações coletadas em notícias de jornais, e entrevistas semiestruturadas com especialistasda área financeira. Os resultados dos experimentos demonstram o potencial da simulação dos modelos baseados em agentes para a realização de estudos de ambientes complexos de governança regulamentar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa analisar a relação entre política monetária e persistência inflacionária no período recente, após a introdução do regime de metas de inflação no Brasil. Através de um modelo novo-keynesiano simplificado, o grau de persistência do hiato de inflação é modelado como função dos pesos da regra de política monetária. A evolução temporal da regra de Taylor é confrontada com a curva estimada de persistência do hiato de inflação, demonstrando que mudanças na condução da política monetária levam a alterações do nível de persistência inflacionária na economia. Uma adaptação do modelo, com uma regra de Taylor que incorpora expectativas do hiato do produto, chega aos mesmos resultados com maior precisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na modelagem de sistemas complexos, abordagens analíticas tradicionais com equações diferenciais muitas vezes resultam em soluções intratáveis. Para contornar este problema, Modelos Baseados em Agentes surgem como uma ferramenta complementar, onde o sistema é modelado a partir de suas entidades constituintes e interações. Mercados Financeiros são exemplos de sistemas complexos, e como tais, o uso de modelos baseados em agentes é aplicável. Este trabalho implementa um Mercado Financeiro Artificial composto por formadores de mercado, difusores de informações e um conjunto de agentes heterogêneos que negociam um ativo através de um mecanismo de Leilão Duplo Contínuo. Diversos aspectos da simulação são investigados para consolidar sua compreensão e assim contribuir com a concepção de modelos, onde podemos destacar entre outros: Diferenças do Leilão Duplo Contínuo contra o Discreto; Implicações da variação do spread praticado pelo Formador de Mercado; Efeito de Restrições Orçamentárias sobre os agentes e Análise da formação de preços na emissão de ofertas. Pensando na aderência do modelo com a realidade do mercado brasileiro, uma técnica auxiliar chamada Simulação Inversa, é utilizada para calibrar os parâmetros de entrada, de forma que trajetórias de preços simulados resultantes sejam próximas à séries de preços históricos observadas no mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MACHADO, Antônio V. et al. Estudio del Secado de Anacardo (Anacardium occidentale L.) mediante Secador Solar de Radiación Directa. Información Tecnológica, v. 21, n. 1, p. 31-37, 2010.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram utilizados 35.732 registros de peso do nascimento aos 660 dias de idade de 8.458 animais da raça Tabapuã para estimar funções de covariância utilizando modelos de regressão aleatória sobre polinômios de Legendre. Os modelos incluíram: como aleatórios, os efeitos genético aditivo direto, materno, de ambiente permanente de animal e materno; como fixos, os efeitos de grupo de contemporâneo; como covariáveis, a idade do animal à pesagem e a idade da vaca ao parto (linear e quadrática); e sobre a idade à pesagem, polinômio ortogonal de Legendre (regressão cúbica) foi considerado para modelar a curva média da população. O resíduo foi modelado considerando sete classes de variância e os modelos foram comparados pelos critérios de informação Bayesiano de Schwarz e Akaike. O melhor modelo apresentou ordens 4, 3, 6, 3 para os efeitos genético aditivo direto e materno, de ambiente permanente de animal e materno, respectivamente. As estimativas de covariância e herdabilidades, obtidas utilizando modelo bicaracter, e de regressão aleatória foram semelhantes. As estimativas de herdabilidade para o efeito genético aditivo direto, obtidas com o modelo de regressão aleatória, aumentaram do nascimento (0,15) aos 660 dias de idade (0,45). Maiores estimativas de herdabilidade materna foram obtidas para pesos medidos logo após o nascimento. As correlações genéticas variaram de moderadas a altas e diminuíram com o aumento da distância entre as pesagens. A seleção para maiores pesos em qualquer idade promove maior ganho de peso do nascimento aos 660 dias de idade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Techniques of optimization known as metaheuristics have achieved success in the resolution of many problems classified as NP-Hard. These methods use non deterministic approaches that reach very good solutions which, however, don t guarantee the determination of the global optimum. Beyond the inherent difficulties related to the complexity that characterizes the optimization problems, the metaheuristics still face the dilemma of xploration/exploitation, which consists of choosing between a greedy search and a wider exploration of the solution space. A way to guide such algorithms during the searching of better solutions is supplying them with more knowledge of the problem through the use of a intelligent agent, able to recognize promising regions and also identify when they should diversify the direction of the search. This way, this work proposes the use of Reinforcement Learning technique - Q-learning Algorithm - as exploration/exploitation strategy for the metaheuristics GRASP (Greedy Randomized Adaptive Search Procedure) and Genetic Algorithm. The GRASP metaheuristic uses Q-learning instead of the traditional greedy-random algorithm in the construction phase. This replacement has the purpose of improving the quality of the initial solutions that are used in the local search phase of the GRASP, and also provides for the metaheuristic an adaptive memory mechanism that allows the reuse of good previous decisions and also avoids the repetition of bad decisions. In the Genetic Algorithm, the Q-learning algorithm was used to generate an initial population of high fitness, and after a determined number of generations, where the rate of diversity of the population is less than a certain limit L, it also was applied to supply one of the parents to be used in the genetic crossover operator. Another significant change in the hybrid genetic algorithm is the proposal of a mutually interactive cooperation process between the genetic operators and the Q-learning algorithm. In this interactive/cooperative process, the Q-learning algorithm receives an additional update in the matrix of Q-values based on the current best solution of the Genetic Algorithm. The computational experiments presented in this thesis compares the results obtained with the implementation of traditional versions of GRASP metaheuristic and Genetic Algorithm, with those obtained using the proposed hybrid methods. Both algorithms had been applied successfully to the symmetrical Traveling Salesman Problem, which was modeled as a Markov decision process

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work introduces a new method for environment mapping with three-dimensional information from visual information for robotic accurate navigation. Many approaches of 3D mapping using occupancy grid typically requires high computacional effort to both build and store the map. We introduce an 2.5-D occupancy-elevation grid mapping, which is a discrete mapping approach, where each cell stores the occupancy probability, the height of the terrain at current place in the environment and the variance of this height. This 2.5-dimensional representation allows that a mobile robot to know whether a place in the environment is occupied by an obstacle and the height of this obstacle, thus, it can decide if is possible to traverse the obstacle. Sensorial informations necessary to construct the map is provided by a stereo vision system, which has been modeled with a robust probabilistic approach, considering the noise present in the stereo processing. The resulting maps favors the execution of tasks like decision making in the autonomous navigation, exploration, localization and path planning. Experiments carried out with a real mobile robots demonstrates that this proposed approach yields useful maps for robot autonomous navigation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work presents simulation results of an identification platform compatible with the INPE Brazilian Data Collection System, modeled with SystemC-AMS. SystemC-AMS that is a library of C++ classes dedicated to the simulation of heterogeneous systems, offering a powerful resource to describe models in digital, analog and RF domains, as well as mechanical and optic. The designed model was divided in four parts. The first block takes into account the satellite s orbit, necessary to correctly model the propagation channel, including Doppler effect, attenuation and thermal noise. The identification block detects the satellite presence. It is composed by low noise amplifier, band pass filter, power detector and logic comparator. The controller block is responsible for enabling the RF transmitter when the presence of the satellite is detected. The controller was modeled as a Petri net, due to the asynchronous nature of the system. The fourth block is the RF transmitter unit, which performs the modulation of the information in BPSK ±60o. This block is composed by oscillator, mixer, adder and amplifier. The whole system was simulated simultaneously. The results are being used to specify system components and to elaborate testbenchs for design verification

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é proposto um novo algoritmo online para o resolver o Problema dos k-Servos (PKS). O desempenho desta solução é comparado com o de outros algoritmos existentes na literatura, a saber, os algoritmos Harmonic e Work Function, que mostraram ser competitivos, tornando-os parâmetros de comparação significativos. Um algoritmo que apresente desempenho eficiente em relação aos mesmos tende a ser competitivo também, devendo, obviamente, se provar o referido fato. Tal prova, entretanto, foge aos objetivos do presente trabalho. O algoritmo apresentado para a solução do PKS é baseado em técnicas de aprendizagem por reforço. Para tanto, o problema foi modelado como um processo de decisão em múltiplas etapas, ao qual é aplicado o algoritmo Q-Learning, um dos métodos de solução mais populares para o estabelecimento de políticas ótimas neste tipo de problema de decisão. Entretanto, deve-se observar que a dimensão da estrutura de armazenamento utilizada pela aprendizagem por reforço para se obter a política ótima cresce em função do número de estados e de ações, que por sua vez é proporcional ao número n de nós e k de servos. Ao se analisar esse crescimento (matematicamente, ) percebe-se que o mesmo ocorre de maneira exponencial, limitando a aplicação do método a problemas de menor porte, onde o número de nós e de servos é reduzido. Este problema, denominado maldição da dimensionalidade, foi introduzido por Belmann e implica na impossibilidade de execução de um algoritmo para certas instâncias de um problema pelo esgotamento de recursos computacionais para obtenção de sua saída. De modo a evitar que a solução proposta, baseada exclusivamente na aprendizagem por reforço, seja restrita a aplicações de menor porte, propõe-se uma solução alternativa para problemas mais realistas, que envolvam um número maior de nós e de servos. Esta solução alternativa é hierarquizada e utiliza dois métodos de solução do PKS: a aprendizagem por reforço, aplicada a um número reduzido de nós obtidos a partir de um processo de agregação, e um método guloso, aplicado aos subconjuntos de nós resultantes do processo de agregação, onde o critério de escolha do agendamento dos servos é baseado na menor distância ao local de demanda

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This dissertation analyses the influence of sugar-phosphate structure in the electronic transport in the double stretch DNA molecule, with the sequence of the base pairs modeled by two types of quasi-periodic sequences: Rudin-Shapiro and Fibonacci. For the sequences, the density of state was calculated and it was compared with the density of state of a piece of human DNA Ch22. After, the electronic transmittance was investigated. In both situations, the Hamiltonians are different. On the analysis of density of state, it was employed the Dyson equation. On the transmittance, the time independent Schrödinger equation was used. In both cases, the tight-binding model was applied. The density of states obtained through Rudin-Shapiro sequence reveal to be similar to the density of state for the Ch22. And for transmittance only until the fifth generation of the Fibonacci sequence was acquired. We have considered long range correlations in both transport mechanism