38 resultados para Fluxo de potência probabilístico
Resumo:
O projeto de edificações é um dos processos mais importantes em empreendimentos de construção pelo seu impacto em termos de custo e qualidade do produto final. Entretanto, observam-se muitos problemas relacionados ao gerenciamento inadequado do mesmo, tais como ineficiente comunicação entre os intervenientes, indefinição de responsabilidades e ocorrência de erros em projetos. Muitos destes problemas dizem respeito à sub utilização dos sistemas CAD e tecnologias da informação. O presente trabalho tem como objetivo propor diretrizes e padrões para gestão do fluxo de informações e para produção de desenhos no processo de projeto utilizando recursos computacionais. Busca-se, assim, o aumento da eficiência do uso dos sistemas CAD e tecnologias da informação e também uma maior eficiência nas trocas de informações entre os intervenientes. Para tal, foram realizados dois estudos de caso em empresas construtoras incorporadoras de pequeno porte situadas na Região Metropolitana de Porto Alegre - RS. A partir dos estudos de caso, foram desenvolvidos os seguintes padrões: estrutura de diretórios, back up de arquivos de desenho, nomenclatura de arquivos de desenho, protocolos de envio e recebimento de arquivos ou plantas, controle de versões de plantas ou memoriais descritivos enviados à obra, nomenclatura de layers, layers para integração, diretrizes para produção de desenhos no computador e diretrizes para apresentação de plantas. Além disso, foram identificadas e discutidas novas tendências em termos de aplicação das tecnologias da informação no processo de projeto. No entanto, salienta-se que este trabalho não tem a intenção de quebrar o paradigma atual do processo de projeto, mas sim, contribuir para preparar as empresas construtoras incorporadoras e escritórios de projeto para as tendências futuras de informatização.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
O novo cenário mundial, marcado pela globalização e atingindo todos os tipos de empresas nos mais variados setores, é descrito como um ambiente de competição muito acirrada, no qual as empresas precisam encontrar soluções cada vez mais rápidas, com precisão e eficiência, entregando um valor maior para seus clientes e melhores retornos para os acionistas. Nesse ambiente, a informação é um fator primordial de diferenciação, sobrevivência e prosperidade para as organizações. Fluxos de informações confiáveis devem ser desenvolvidos, a fim de contribuir para uma melhor qualidade das decisões. O operador de central de atendimento, ou atendente como é conhecido no segmento, é um infomediário e deve ser preparado e treinado para melhor desempenhar o seu papel na coleta de dados e informações. Assim, o objetivo deste trabalho é propor um fluxo que disponibilize informações precisas e confiáveis a respeito dos clientes, a partir de contatos via central de atendimento da Telet, tornando o processo decisório mais ágil e com foco do cliente. Para isso, foram realizadas entrevistas para identificar as carências e as dificuldades de informações disponibilizadas pela Central de Atendimento às áreas clientes da empresa (marketing, planejamento,engenharia e TI), e foi aplicada uma pesquisa com os atendentes, buscando entender os fatores críticos que os levam a não registrar corretamente as demandas dos clientes, bem como o entendimento de seu papel na organização. Da análise dos dados das entrevistas com especialistas das áreas clientes e dos resultados da pesquisa, estruturada e aplicada em uma amostra de atendentes, emergiu a proposta de um novo fluxo de informações que qualifique a tomada de decisão. Constatou-se que não basta apenas a central de atendimento estar preparada, treinada e capacitada, para melhor atender o cliente e coletar dados e informações dos produtos e serviços. Um fluxo de informações estruturado é fundamental para que a informação trafegue até o destino correto, apoiando a tomada de decisão, permitindo a aprendizagem e a geração do conhecimento.
Resumo:
O presente trabalho consiste da realização de um estudo experimental sobre os efeitos das substituições químicas na irreversibilidade magnética e na magnetocondutividade do supercondutor YBa2Cu3O7-δ. Para tanto, o comportamento da linha de irreversibilidade magnética (LIM) bem como dos regimes de flutuações na magnetocondutividade foram pesquisados em amostras policristalinas e moncristalinas de YBa2-xSrxCu3O7-δ (x = 0, 0.1, 0.25, 0.37 e 0.5) e YBa2Cu2.97D0.03O7-δ (D = Zn ou Mg). Além de reduzir drasticamente o valor da temperatura crítica de transição, Tc, os dopantes introduzem um caráter granular nos monocristais. No monocristal puro, o comportamento da LIM é descrito pela lei de potências prevista pelo modelo de "flux creep" gigante para dinâmica de fluxo de Abrikosov convencional. Por outro lado, o comportamento da LIM para as amostras supercondutoras granulares apresenta características própias bastante relevantes. Os dados do limite de irreversibilidade, Tirr(H) seguem a lei de potência ditada pelas teorias de "flux creep" somente em altos campos magnéticos.Na região de baixos campos magnéticos, dois diferentes regimes de dinâmica de fluxo surgem: Nos campos magnéticos mais baixos que 1 kOe, os dados de Tirr(H) seguem uma lei de potência do tipo de Almeida-Thouleess (AT). Perto de 1 kOe, ocorre um "crossover" e em campos magnéticos intermediários passa a ter seu comportamento descrito por uma lei de potências do tipo Gabay-Toulouse (GT). A ocorrência de um comportamento AT-GT na LIM é a assinatura de um sistema frustrado onde a dinâmica de fluxo intergranular ou de Josephson é dominante. Na ausência de teorias específicas para este comportamento em baixos campos, descrevemos o comportamento da LIM de nossos supercondutores granulares, na região de baixo campo, em analogia aos sistemas vidros de spin. No entanto, o comportamento de Tirr(H) na região de altos campos, ocorre de acordo com a teoria de "flux creep" gigante. Particularmente, para valores acima de 20 kOe, a LIM nos monocristais de YBa2-xSrxCu3O7-δ para H // ab, exibe fortes propriedades direcionais para a orientação de H próximo aos planos de maclas (PMCs). Este comportamento é do tipo "cusp", similar ao observado em supercondutores com defeitos colunares, o qual caracteriza uma fase vidro de Bose. Por outro lado, a magnetoresistividade elétrica revela que a transição resistiva dos supercondutores granulares ocorre em duas etapas. Quando a temperatura é decrescida, inicialmente ocorre a transição de pareamento no interior dos grãos. Em temperaturas inferiores, na proximidade do estado de resistência nula, ocorre a transição de coerência, observada pela primeira vez num monocristal. Na transição de coerência, o parâmetro de ordem adquire ordem de longo alcance. Na região de temperaturas imediatamente acima de Tc, nossos resultados de flutuações na magnetocondutividade revelam a ocorrência de regimes críticos e Gaussianos. Abaixo de Tc, na região paracoerente, que antecede à transição de coerência, observaram-se regimes críticos cujo expoente é consistente com o esperado para o modelo 3D-XY com desordem relevante e dinâmica do tipo vidro de spin.
Resumo:
No Brasil, de forma geral, é elevado o custo do capital de terceiros para financiamento das atividades empresariais. Para a gestão financeira das corporações brasileiras, são cruciais o fortalecimento do capital próprio e a obtenção de melhores saldos no fluxo de caixa. Uma importante fonte de financiamento são os recursos gerados na própria empresa. Entre as várias opções para fortalecimento do capital próprio e para melhoria do fluxo de caixa, uma alternativa que pode ser viável, dependendo das variáveis às quais a empresa está submetida, é o uso dos juros sobre o capital próprio, previsto na Lei nº 9.249/1995 e alterações posteriores. Este trabalho tem como objetivo a proposição de um modelo para gestão financeira das empresas, considerando o impacto dos juros sobre o capital próprio na estrutura do capital e no fluxo de caixa da empresa. Objetiva também mensurar os efeitos do uso dos juros sobre o capital próprio no conjunto formado pela empresa e seus investidores. Efetuou-se um diagnóstico das principais variáveis que podem afetar a decisão das empresas de utilizar ou não os juros sobre o capital próprio para remunerar os investidores. Posteriormente, foi elaborado um modelo para avaliação do impacto dos juros sobre o capital próprio na estrutura de capital e no fluxo de caixa da empresa. O modelo foi aplicado em uma empresa hipotética. A aplicação do modelo proposto proporcionou à empresa melhoria na rapidez, qualidade, confiabilidade e flexibilidade das informações, e maior racionalização e transparência nos processos de gestão relacionados à decisão de uso dos juros sobre o capital próprio Os juros sobre o capital próprio são uma opção fiscal à disposição dos gestores da empresa para remunerar os investidores. O valor dos juros remuneratórios do capital deduzido o imposto de renda retido na fonte, pode ser imputado aos dividendos obrigatórios ou utilizado para aumento do capital da empresa. O modelo proposto gera informações a respeito do impacto que o uso da opção fiscal provoca na carga tributária, no capital próprio e no fluxo de caixa da empresa e dos respectivos acionistas. Outras informações do modelo são as possíveis alterações na remuneração, com base no lucro societário, propiciada a debenturistas, empregados, administradores, partes beneficiárias e acionistas. As informações produzidas pelo modelo têm natureza estratégica e permitem aos gestores da empresa tomar decisões com melhor fundamentação.
Resumo:
Neste trabalho, apresentamos uma solução analítica para as equações difusivas unidimensionais da Teoria Geral de Perturbação em uma placa heterogênea, isto é, apresentamos as soluções analíticas para os problemas de autovalor para o fluxo de nêutrons e para o fluxo adjunto de nêutrons, para o cálculo do fator de multiplicação efetivo (keff), para o problema de fonte fixa e para o problema de função auxiliar. Resolvemos todos os problemas mencionados aplicando a Transformada de Laplace em uma placa heterogênea considerando um modelo de dois grupos de energia e realizamos a inversão de Laplace do fluxo transformado analiticamente através da técnica da expansão de Heaviside. Conhecendo o fluxo de nêutrons, exceto pelas constantes de integração, aplicamos as condições de contorno e de interface e resolvemos as equações algébricas homogêneas para o fator de multiplicação efetivo pelo método da bissecção. Obtemos o fluxo de nêutrons através da avaliação das constantes de integração para uma potência prescrita. Exemplificamos a metodologia proposta para uma placa com duas regiões e comparamos os resultados obtidos com os existentes na literatura.
Resumo:
Diante do aumento da competição no mercado de edificações habitacionais, o paradigma de produção tradicional da construção apresenta limitações, pois resulta em um elevado índice de desperdícios, com altos custos de produção, baixa qualidade e atrasos na entrega dos produtos. A Produção Enxuta, como um paradigma de produção que busca eliminar os desperdícios para que os custos de produção diminuam, a qualidade dos produtos e a rapidez com que são entregues sejam melhores, apresenta-se com potencial de reduzir as ineficiências da construção. As idéias da Produção Enxuta têm sido introduzidas na construção desde 1993, originando a Construção Enxuta. Apesar de estudos demonstrarem bons resultados na introdução dessas idéias na construção, observa-se que tais esforços têm-se voltado mais para uma implementação isolada e pontual, limitando assim a possibilidade de melhorias ao longo do fluxo de valor. Na tentativa de reverter este quadro, o objetivo principal deste trabalho é visualizar o processo produtivo da construção de modo sistêmico, ou seja, do seu fluxo de valor. E assim, identificar os seus principais problemas e desperdícios e propor ações de melhoria, visando uma implementação sistêmica da Produção Enxuta. Para visualização do fluxo de valor utiliza-se a ferramenta chamada Mapeamento do Fluxo de Valor (MFV). Utilizado na manufatura como forma de iniciar a implementação da Produção Enxuta nas empresas, o MFV possibilita uma visualização sistêmica da produção, relacionando o processo produtivo com os clientes e fornecedores, a identificação dos desperdícios e a proposição de melhorias. Devido às diferenças entre construção e manufatura, foram necessárias adequações no MFV para sua aplicação na construção. O estudo foi realizado em uma construtora de edificações habitacionais de Porto Alegre/RS e em função do longo período de construção, a aplicação do MFV ocorreu somente na etapa da alvenaria. A partir da visualização sistêmica da alvenaria foi identificada uma série de problemas e desperdícios e propostas ações de melhorias, almejando a implementação da Produção Enxuta ao longo do fluxo de valor. Entre as melhorias que se mostraram possíveis tem-se a redução do lead time de produção, um processo produtivo mais fluído, a redução dos estoques, o melhor aproveitamento da mão-de-obra e a melhor interação com os diversos agentes que fazem parte da construção como, por exemplo, os clientes, os arquitetos e os fornecedores.
Resumo:
A crescente preocupação com o lançamento de nutrientes aos corpos d'água e seu impacto sobre a qualidade dos mananciais justifica o aprofundamento do estudo de técnicas de tratamenot de águas residuárias que promovam a remoção destes poluentes. Com a finalidade de estudar a remoção do nitrogênio, foram operados dois sistemas biológicos de tratamento de efluentes por lodos ativados em escala piloto. Esses sistemas apresentavam diferenças em relação a seu fluxo de operação, onde um deles trabalhava de forma intermitente (Reator Seqüencial em Batelada) enquanto o outro se caracterizava por apresentar um fluxo contínuo (Bardenpho). A pesquisa foi realizada no tratamento de esgoto doméstico e dividiu-se em duas etapas: na primeira, foi adotada uma idade de lodo de 10 dias como parâmetro operacional enquanto que, na segunda , adotou-se uma idade de lodo de 30 dias. O monitoramento dos processos foi realizado por meio de análises físico-químicas e também pela observação da microfauna presente no lodo, como um parâmetro adicional de controle dos sistemas. O RSB apresentou-se mais eficiente do que o sistema de fluxo contínuo ao longo das duas etapas da pesquisa Na primeira fase, o RSB apresentou remoções médias de 88, 86 e 59% para a DQO, nitrogênio total e ST, respectivamente, enquanto que, para o sistema em fluxo contínuo, essas remoções foram de 76, 56 e 50%, respectivamente. Na segunda etapa, o RSB apresentou uma remoção média de 88% para DQO, 88% para nitrogênio total e 50% para ST, enquanto que o sistema contínuo apresentou valores médios de 72,49 e 29%, respectivamente. Os sistemas de tratamento apresentaram boas condições de sedimentabilidade durante as duas etapas comprovadas através dos valores obtidos a partir do stestes do IVL e IVLA. Observou-se uma variação da composição da microfauna nos dois sistemas de fluxo contínuo e uma predominância de ciliados fixos no RSB. No RSB, a presença de ciliados fixos esteve associada a boas condiçôes de sedimentabilidade e de remoção de matéria orgânica enquanto que no sistema contínuo, esta associação deu-se com o gênero Euplotes sp. e com os metazóarios. Observaram-se relações entre a presença de amebas e a remoção de nitrogênio no RSB. A presença de ciliados rastejantes esteve associada à geração de um efluente com baixa concentração de SSV em ambos os sistemas de tratamento.
Resumo:
O presente trabalho compreende o estudo do fluxo de informações entre os agentes de uma cadeia produtiva, representada por uma cadeia organizada da carne bovina no Estado do Rio Grande do Sul. Os objetivos foram estudar os processos informacionais desta cadeia, identificando as informações utilizadas pelos agentes (produtores, frigoríficos e varejo) para promover o seu desenvolvimento. Juntamente com esses dados, foram identificadas as informações que estão sendo enviadas e recebidas pelos agentes e a percepção da qualidade da informação recebida pelos agentes que a constituem. A análise dos resultados foi subsidiada por uma base conceitual relevante para o estudo através da Gestão da Cadeia de Suprimentos, Economia dos Custos de Transação, Gerenciamento da Informação e Qualidade da Informação. A metodologia utilizada no trabalho foi o estudo de caso. Foram estudados um hipermercado, um frigorífico e cinco produtores, todos pertencentes à mesma cadeia produtiva. Os resultados obtidos demonstram que o fluxo de informações entre os agentes da cadeia produtiva é insatisfatório frente às informações que os agentes detém. A estruturação do processo informacional do setor de varejo limita-se basicamente as informações geradas no próprio varejo. Por outro lado, o processo do setor industrial é mais amplo, compreendendo varias fontes de informações. Entretanto, os produtores, apresentam processos informacionais deficientes, com poucas fontes de informação. A mensuração da qualidade das informações que fluem na cadeia produtiva apresentou bons índices de qualidade. Entretanto as informações de origem externa a cadeia caracterizaram-se por apresentarem índices inferiores de qualidade da informação.
Resumo:
Este trabalho apresenta o modelo de simulação microscópico, STIRO (Simulador de Tráfego Ininterrupto ROdoviário), desenvolvido para representar trechos de rodovias de pista simples em aclives com faixas adicionais para veículos lentos. STIRO foi utilizado permitir para avaliar as condições de tráfego sob diferentes alternativas de projeto e demanda. O comportamento dos veículos é representado pelos modelos de car-following e lane-changing. No STIRO, o modelo de car-following ainda incorpora uma restrição ao desempenho motriz baseado na relação entre massa e potência de cada categoria de veículo. O trabalho apresenta um estudo sobre diferenças entre as velocidades dos veículos pesados e automóveis e as melhorias proporcionadas pela implantação de faixas adicionais. Por fim, foi realizado um projeto de experimentos para determinar o efeito sobre a velocidade média de percurso dos veículos e ocupação média da via causado por fatores como inclinação da rampa, proporção de veículos pesados no fluxo de tráfego, extensão da rampa, e outras variáveis consideradas no modelo STIRO.
Resumo:
A dissertação apresenta a educação profissional em saúde como cenário e nascente de relações de trabalho, de ensino e de cuidado à saúde. A produção de conhecimento engendrada revela uma educação profissional com potência de mutação dos valores da racionalidade hegemônica para os valores de singularização do trabalho e dos trabalhadores. O estudo ocupou-se do ensino técnico em saúde propondo entender que seu processo de formação guarda interferências entre a gestão do sistema de saúde, a organização do processo de trabalho nos serviços deste setor e o ordenamento do ensino para suas profissões. O trabalho de escrita e produção de conhecimento foi inovador e original, posto que proposto como a arte em mosaico. O mosaico revelou-se como dispositivo para a exploração das possibilidades e dos efeitos de encontro entre educação, saúde, trabalho e educação em saúde. A metodologia utilizada foi a cartografia, produzindo-se imagem e informação tanto científico-racional, como sensível-vivencial. A problematização de imagens, conceitos e experiências do trabalho e da educação na saúde detectou importante contribuição da educação profissional na mutação da divisão técnica e social das ocupações neste setor, contribuindo para a mudança nos indivíduos, coletivos e instituições, quando organizados para a produção.
Resumo:
A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.
Resumo:
Resumo não disponível.
Resumo:
A presente dissertação tem como objetivo estudar e aprimorar métodos de projetos de controladores para sistemas de potência, sendo que esse trabalho trata da estabilidade dinâmica de sistemas de potência e, portanto, do projeto de controladores amortecedores de oscilações eletromecânicas para esses sistemas. A escolha dos métodos aqui estudados foi orientada pelos requisitos que um estabilizador de sistemas de potência (ESP) deve ter, que são robustez, descentralização e coordenação. Sendo que alguns deles tiveram suas características aprimoradas para atender a esses requisitos. A abordagem dos métodos estudados foi restringida à análise no domínio tempo, pois a abordagem temporal facilita a modelagem das incertezas paramétricas, para atender ao requisito da robustez, e também permite a formulação do controle descentralizado de maneira simples. Além disso, a abordagem temporal permite a formulação do problema de projeto utilizando desigualdades matriciais lineares (LMI’s), as quais possuem como vantagem o fato do conjunto solução ser sempre convexo e a existência de algoritmos eficientes para o cálculo de sua solução. De fato, existem diversos pacotes computacionais desenvolvidos no mercado para o cálculo da solução de um problema de inequações matriciais lineares. Por esse motivo, os métodos de projeto para controladores de saída buscam sempre colocar o problema na forma de LMI’s, tendo em vista que ela garante a obtenção de solução, caso essa solução exista.
Resumo:
Este trabalho pretende avaliar se é possível elaborar estratégias pedagógicas com base em modelos de níveis de tomada de consciência e utilizá-las, por meio de agentes inteligentes, em um ambiente de aprendizagem. O ambiente utilizado foi o AMPLIA - Ambiente Multi-agente Probabilístico Inteligente de Aprendizagem, desenvolvido inicialmente como um recurso auxiliar para a educação médica: neste ambiente, o aluno constrói uma representação gráfica de sua hipótese diagnóstica, por meio de uma rede bayesiana. O AMPLIA é formado por três agentes inteligentes, o primeiro é o Agente de Domínio, responsável pela avaliação da rede bayesiana do aluno. Os projetos dos outros dois agentes inteligentes do AMPLIA são apresentados nesta tese: o Agente Aprendiz, que faz inferências probabilísticas sobre as ações do aluno, a fim de construir um modelo do aluno baseado em seu nível de tomada de consciência, e o Agente Mediador, que utiliza um Diagrama de influência, para selecionar a estratégia pedagógica com maior probabilidade de utilidade. Por meio de uma revisão dos estudos de Piaget sobre a equilibração das estruturas cognitivas e sobre a tomada de consciência, foi construída a base teórica para a definição e organização das estratégias. Essas foram organizadas em classes, de acordo com o principal problema detectado na rede do aluno e com a confiança declarada pelo aluno, e em táticas, de acordo com o nível de autonomia, inferido pelo Agente Aprendiz. Foram realizados experimentos práticos acompanhados por instrumentos de avaliação e por observações virtuais on line, com o objetivo de detectar variações nos estados de confiança, de autonomia e de competência. Também foram pesquisados indícios de estados de desequilibração e de condutas de regulação e equilibração durante os ciclos de interação do aluno com o AMPLIA. Os resultados obtidos permitiram concluir que há evidências de que, ao longo do processo, há ciclos em que o aluno realiza ações sem uma tomada de consciência. Estes estados são identificados, probabilisticamente, pelo agente inteligente, que então seleciona uma estratégia mais voltada para um feedback negativo, isto é, uma correção. Quando o agente infere uma mudança neste estado, seleciona outra estratégia, com um feedback positivo e com maior utilidade para dar início a um processo de negociação pedagógica, isto é, uma tentativa de maximizar a confiança do aluno em si mesmo e no AMPLIA, assim como maximizar a confiança do AMPLIA no aluno. Os trabalhos futuros apontam para a ampliação do modelo do aluno, por meio da incorporação de um maior número de variáveis, e para a necessidade de aprofundamento dos estudos sobre a declaração de confiança, do ponto de vista psicológico. As principais contribuições relatadas são na definição e construção de um modelo de aluno, com utilização de redes bayesianas, no projeto de um agente pedagógico como mediador num processo de negociação pedagógica, e na definição e seleção de estratégias pedagógicas para o AMPLIA.