83 resultados para Softwares dinâmicos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Empresas e instituições de ensino têm realizado investimentos significativos na implementação de programas de educação a distância (EAD) que utilizam a Internet como principal tecnologia de informação e comunicação. O atual cenário econômico, cultural e tecnológico favorece a criação de um mercado eletrônico da aprendizagem, justificando tais investimentos. A educação a distância aparenta mover-se em direção da Internet, mas o caminho é difícil por causa das muitas incertezas. Estas incertezas, juntamente com o grande número de variáveis envolvidas nos programas de EAD via Internet, dificultam, para os gestores, que se mantenha o foco nos pontos mais essenciais. Assim, o objetivo deste trabalho é identificar os fatores críticos de sucesso dos programas de educação a distância via Internet. Procura-se ainda, identificar os pontos importantes e os problemas mais críticos na gestão destes programas. Para isso, foram realizadas 9 entrevistas em profundidade com especialistas do assunto no Brasil. Posteriormente, a partir dos resultados destas entrevistas, foram realizados dois estudos de caso, com o programa Iniciando um Pequeno Grande Negócio, do SEBRAE, e com o Núcleo de Aprendizagem Virtual da Escola de Administração da UFRGS. O resultados da pesquisa apontaram a existência de seis fatores críticos de sucesso, ligados à capacitação e à experiência da equipe dos programas de EAD, ao grau de envolvimento dos membros da organização com os programas de EAD, ao conhecimento e à preocupação com as características e comportamento do estudante, ao modelo pedagógico, à tecnologia – em especial a infra-estrutura tecnológica e os softwares utilizados - e à realização de parcerias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma extensão do padrão ODMG para o suporte ao versionamento de objetos e características temporais. Essa extensão, denominada TV_ODMG, é baseada no Modelo Temporal de Versões (TVM), que é um modelo de dados orientado a objetos desenvolvido para armazenar as versões do objeto e, para cada versão, o histórico dos valores dos atributos e dos relacionamentos dinâmicos. O TVM difere de outros modelos de dados temporais por apresentar duas diferentes ordens de tempo, ramificado para o objeto e linear para cada versão. O usuário pode também especificar, durante a modelagem, classes normais (sem tempo e versões), o que permite a integração desse modelo com outras modelagens existentes. Neste trabalho, os seguintes componentes da arquitetura do padrão ODMG foram estendidos: o Modelo de Objetos, a ODL (Object Definition Language) e a OQL (Object Query Language). Adicionalmente, foi desenvolvido um conjunto de regras para o mapeamento do TV_ODMG para o ODMG a fim de permitir o uso de qualquer ODBMS para suportar a extensão proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As aplicações da mecânica vibratória vêm crescendo significativamente na análise de sistemas de suspensões e estruturas de veículos, dentre outras. Desta forma, o presente trabalho desenvolve técnicas para a simulação e o controle de uma suspensão de automóvel utilizando modelos dinâmicos com um, dois e três graus de liberdade. Na obtenção das equações do movimento para o sistema massa-mola-amortecedor, o modelo matemático utilizado tem como base a equação de Lagrange e a segunda lei de Newton, com condições iniciais apropriadas. A solução numérica destas equações é obtida através do método de Runge-Kutta de 4ª ordem, utilizando o software MATLAB. Para controlar as vibrações do sistema utilizou-se três métodos diferentes de controle: clássico, LQR e alocação de pólos. O sistema assim obtido satisfaz as condições de estabilidade e de desempenho e é factível para aplicações práticas, pois os resultados obtidos comparam adequadamente com dados analíticos, numéricos ou experimentais encontrados na literatura, indicando que técnicas de controle como o clássico podem ser simples e eficientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é um estudo aplicado da implementação e utilização do gerenciamento do crescimento da confiabilidade no setor de máquinas agrícolas na empresa John Deere Brasil SA. O uso de técnicas e softwares de confiabilidade para monitorar o desenvolvimento do projeto da colheitadeira de grãos – modelo da série 1100 – foi fundamental para determinar o momento exato de introduzir o produto no mercado. A análise das falhas dos produtos existentes, sugestões dos clientes e informações da área de suporte e serviços, serviram como base para a introdução de diversas melhorias para o novo modelo de colheitadeira. As principais atividades referentes à confiabilidade foram, a previsão da confiabilidade, testes e planejamento do crescimento da confiabilidade, modelagem do crescimento da confiabilidade e a análise dos dados obtidos com os testes de campo. O objetivo da implementação das ferramentas do gerenciamento do crescimento da confiabilidade foi administrar as informações dos eventos de testes de campo, para que as falhas verificadas durante o período de testes fossem reprojetadas e as ações corretivas implementadas e verificadas suas melhorias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Automação Residencial é uma área em crescimento no mercado mundial. À medida que os avanços tecnológicos são incorporados aos dispositivos pertencentes ao ambiente residencial, e que estes se tornam mais disseminados, surgem necessidades para fabricantes e usuários. Para os fabricantes, é desejável maior capacidade de conexão e intercâmbio de dados entre os dispositivos e, conseqüentemente, padronização. Para os usuários, é desejável maior facilidade na utilização dos dispositivos e, principalmente, na configuração dos mesmos em ambientes dinâmicos, de forma a não requerer interação do usuário para a conexão e desconexão, característica das redes espontâneas. Grandes empresas têm unido esforços no desenvolvimento de novos padrões e uma das tendências observadas é o isolamento destas novas necessidades numa camada entre a aplicação e o sistema operacional, denominada middleware. Este trabalho compara duas tecnologias que se enquadram nos critérios acima: Jini, da Sun Microsystems e Universal Plug and Play (UPnP), de um consórcio de empresas liderado pela Microsoft. O estudo é feito através do desenvolvimento de um protótipo, da definição de um conjunto de métricas qualitativas e quantitativas, e da implementação de um conjunto de workloads para a análise comparativa entre elas. Os resultados obtidos são apresentados e analisados, contribuindo com subsídios para os interessados em conhecer melhor ou optar por uma delas. Por fim, são registradas algumas necessidades observadas que poderão servir como base para trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente valorização dos imóveis nos centros de grandes cidades, com o custo do metro quadrado cada vez mais elevado, assim como o aprimoramento de técnicas e materiais construtivos, levaram a uma tendência mundial da construção de edificações altas. Contudo essas edificações altas, leves e esbeltas são suscetíveis a problemas dinâmicos, que podem levar a um comprometimento de confiabilidade das mesmas ou ao desconforto de seus usuários. Dentre as ações dinâmicas o vento trata-se de uma das mais importantes. A previsão da resposta induzida pela ação dinâmica do vento por métodos analíticos é complexa e de difícil resolução, principalmente para os efeitos transversais ao sentido da velocidade média do vento. Assim a construção de modelos aeroelásticos para a análise do comportamento dinâmico de edifícios altos em túnel de vento é, ainda hoje, a maneira mais confiável e precisa para chegar-se na resposta. Na presente dissertação é apresentado um estudo teórico e experimental de um edifício alto submetido a ação dinâmica do vento. As respostas obtidas em túnel de vento, através de um modelo aeroelástico equivalente de dois graus fundamentais de liberdade, são comparadas com as formulações da Norma Brasileira NBR - 6123, para a resposta longitudinal ao vento, e da Norma Canadense NBCC - 1985, para as respostas longitudinal e transversal ao vento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As particularidades encontradas na modelagem de bancos de dados geográficos tornam necessário o desenvolvimento de modelos específicos. A totalidade dos modelos desenvolvidos oferece recursos para a modelagem de aspectos estáticos. Alguns dos modelos apresentam soluções parciais para a modelagem de aspectos dinâmicos. A possibilidade de executar processos de análise geográfica, que alteram o estado dos componentes do banco de dados geográficos é, de forma geral, a maior motivação para justificar os investimentos necessários para a sua construção. A formalização desses processos em um modelo conceitual, na fase de projeto, torna desnecessário o uso da terminologia específica que cada software de SIG emprega. A solução desenvolvida estende um framework conceitual (GeoFrame) com uma semântica que suporta a expressão de processos de análise geográfica, mantendo compatibilidade com a linguagem UML. Para utilizar de forma adequada os recursos do framework, uma metodologia para a elaboração do modelo do usuário é indicada. Nessa metodologia, os processos são identificados a partir da elaboração de diagramas de casos de uso e atividades, incorporados no diagrama de classes e detalhados através de diagramas de atividades contendo ações. Um levantamento sobre operações utilizadas em processos de análise geográfica abrangendo a visão conceitual, lógica e de implementação de vários autores levou à construção de um catálogo de operações geográficas. Essas operações foram modeladas utilizando os elementos de modelagem de comportamento da especificação da UML, versão 2.0. O conjunto de recursos oferecidos nesse trabalho proporciona ao projetista de bancos de dados geográficos o desenvolvimento de uma especificação em alto nível e abrangente, utilizando a linguagem UML, reconhecida como padrão em modelagem de sistemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é a introdução e desenvolvimento de uma metodologia analítico-simbólica para a obtenção de respostas dinâmicas e forçadas (soluções homogêneas e não homogêneas) de sistemas distribuídos, em domínios ilimitados e limitados, através do uso da base dinâmica gerada a partir da resposta impulso. Em domínios limitados, a resposta impulso foi formulada pelo método espectral. Foram considerados sistemas com condições de contorno homogêneas e não homogêneas. Para sistemas de natureza estável, a resposta forçada é decomposta na soma de uma resposta particular e de uma resposta livre induzida pelos valores iniciais da resposta particular. As respostas particulares, para entradas oscilatórias no tempo, foram calculadas com o uso da fun»c~ao de Green espacial. A teoria é desenvolvida de maneira geral permitindo que diferentes sis- temas evolutivos de ordem arbitrária possam ser tratados sistematicamente de uma forma compacta e simples. Realizou-se simulações simbólicas para a obtenção de respostas dinâmicas e respostas for»cadas com equações do tipo parabólico e hiperbólico em 1D,2D e 3D. O cálculo das respostas forçadas foi realizado com a determinação das respostas livres transientes em termos dos valores iniciais das respostas permanentes. Foi simulada a decomposição da resposta forçada da superfície livre de um modelo acoplado oceano-atmosfera bidimensional, através da resolução de uma equação de Klein-Gordon 2D com termo não-homogêneo de natureza dinâmica, devido a tensão de cisalhamento na superfície do oceano pela ação do vento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o desenvolvimento de um projeto para análise experimental em semeadoras agrícolas a fim de levantar dados sobre as deformações e solicitações mecânicas na sua estrutura, bem como nos diversos componentes da máquina. Visa-se o desenvolvimento de uma ferramenta / metodologia que permita localizar as regiões de maior deformação mecânica, quantificar estas deformações e registrá-las de forma dinâmica com a máquina realizando seu trabalho em campo para posterior análise dos dados. Para o desenvolvimento deste trabalho foi realizada a averiguação do estado da arte na análise experimental de tensões. Posteriormente foi feito um estudo para verificar quais dos métodos experimentais poderiam ser utilizados e qual destes métodos poderia apresentar melhores resultados para este caso. As características básicas de cada método receberam classificação e estes dados foram colocados em um programa comercial de QFD. Este estudo considerou que o baixo custo de implementação e a facilidade de operação devem apresentar maior importância. O estudo mostrou que nenhum dos métodos isoladamente atende a todos os requisitos exigidos. A fim de que atender as necessidades decidiu-se pela aplicação de dois métodos: Camada Frágil e Extensometria. O primeiro método utilizado inicialmente para localizar os pontos de maior deformação do equipamento, enquanto o segundo método fornece dados quantitativos para a posterior análise dos dados. Assim, os dois métodos escolhidos são apresentados com maior detalhamento. Este trabalho ainda apresenta uma descrição de problemas encontrados na aplicação de cada método, bem como as soluções adotadas; descreve detalhes de equipamentos e materiais comerciais utilizados e discute detalhes do processo experimental empregado. Posteriormente são discutidos os erros experimentais Os resultados obtidos demonstram que o método escolhido atendeu as necessidades e que foi capaz de proporcionar arquivos contendo dados sobre as deformações mecânicas dos componentes quando submetidos aos carregamentos dinâmicos encontrados no trabalho em campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os impactos associados ao crescimento e transformação urbana ampliaramse nesse último século, nas cidades brasileiras. O processo de degradação e a desequilibrada ocupação do espaço periférico constituem problemas urbanos marcantes, onde conflitos de interesses diversos são materializados no espaço por acentuadas desigualdades sociais. Nesse contexto, são identificadas deficiências no sistema de planejamento tradicional em tratar o processo de produção e uso do espaço urbano relacionado à problemática socioespacial e ambiental. Considerando as áreas protegidas inseridas nas cidades, esse trabalho busca relacionar urbanização e meio ambiente através do estudo do impacto e avaliação de desempenho da lei 6525/80, II Plano Diretor de desenvolvimento urbano da cidade de Pelotas no período 80/2000 em zonas de preservação ambiental, na busca de alternativas aplicáveis ao planejamento urbano, examinando os processos mais gerais de produção do espaço e a estrutura fundiária. Foram selecionadas variáveis relativas à problemática ambiental e espacial, relacionadas com a regulamentação vigente, Lei 6525/80 e com aspectos socioeconômicos a fim de proporcionar o monitoramento da informação do desenvolvimento urbano. Propõe-se, na análise, a classificação das zonas de preservação em Unidades Espaciais de Planejamento-UEPs, as glebas assentamentos, em Unidades Espaciais de Desempenho-UEDs, e o ambiente natural em Unidades Geomorfológicas-UGs, cujos dados relativos aos aspectos ambientais, espaciais e socioeconômicos são identificados, descritos e analisados posteriormente através de procedimentos estatísticos multivariados. As conclusões desse trabalho mostram a inadequação da regulamentação, lei 6525/80, no que se refere aos mecanismos de controle da dinâmica de uso do solo, quanto à qualidade do espaço produzido e proteção do meio ambiente, assim como a validação da metodologia aplicada na análise. A utilização de instrumentos de planejamento e gestão mais dinâmicos se faz necessário, assim como a utilização de novas metodologias, considerando os processos naturais relacionados ao meio ambiente no qual a cidade está inserida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa, de caráter exploratório, visou identificar os fatores que influenciam a utilização da tecnologia da informação (TI) em uma instituição de ensino superior, na visão de seus alunos, professores e funcionários. A coleta de dados foi realizada através da aplicação de uma pesquisa survey, com um conjunto de perguntas fechadas e abertas, que resultou em oitocentos e trinta e sete questionários respondidos. Os resultados indicaram diversos fatores que influenciam diretamente a utilização da TI e outros que moderam essa utilização. O fator expectativa de performance influencia positivamente o uso da TI, ou seja, quanto maior a expectativa do usuário de que o uso da TI impacte em melhorias e facilidades na realização de seu trabalho, maior é o uso. O fator expectativa de esforço também influencia o uso da TI, sendo que este é maior entre os indivíduos que acreditam que não precisarão despender muitos esforços para utilizar a TI. Condições facilitadas para o uso, como suporte técnico, apoio institucional e compatibilidade entre softwares, igualmente influenciam o uso de forma positiva, assim como a influência social, que representa a interferência que a opinião de terceiros pode exercer sobre o comportamento do usuário da TI. Outras características também influenciam o uso, como a idade (pessoas mais jovens utilizam mais a TI), experiência no uso (pessoas mais experientes utilizam com maior freqüência), gênero (homens utilizam mais) e o grau de voluntariedade (pessoas que utilizam a TI de forma mais voluntária, utilizam menos).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A heparina foi isolada no início do século XX e permanece, até os dias atuais, como um dos mais importantes e eficientes agentes terapêuticos de ação antitrombótica. Sua atividade anticoagulante deve-se à ativação da antitrombina (AT), uma serpina responsável pela inibição fisiológica de serino-proteinases plasmáticas, tais como fIIa e fXa. Os esforços no sentido da elucidação dos aspectos estruturais e dinâmicos associados ao reconhecimento molecular da heparina pela AT, em nível atômico, vêm encontrando diversas dificuldades, principalmente associadas aos compostos sacarídicos. Em decorrência de sua elevada polaridade e flexibilidade, glicosaminoglicanos como a heparina são difíceis de estudar e modelar. Soma-se a isto o fato de que os resíduos de iduronato presentes na heparina (IdoA) apresentam um incomum equilíbrio conformacional entre estados de cadeira (1C4) e bote-torcido (2SO), sendo esta última estrutura postulada como a possível conformação bioativa. Sendo assim, este trabalho apresenta um estudo de modelagem molecular do perfil conformacional da heparina, tanto em solução quanto complexada à AT, utilizando cálculos ab initio e simulações de dinâmica molecular (DM) Em decorrência da ausência de parâmetros capazes de descrever polissacarídeos nos campos de força atualmente disponíveis, cargas atômicas foram geradas, utilizando-se os esquemas de Mulliken, Löwdin e cargas ajustadas ao Potencial Eletrostático, através de cálculos quantum-mecânicos na base 6-31G** e testadas na simulação de DM da heparina. Diversas condições de simulação, tais como modelos de água, concentrações de sais e as conformações 1C4 e 2SO do IdoA, foram avaliadas de forma a identificar as melhores condições para a descrição conformacional da heparina em solução. O protocolo de DM obtido foi então utilizado no estudo do complexo AT-heparina. Os resultados obtidos estão de acordo com os dados experimentais atualmente disponíveis acerca da conformação da heparina e da contribuição energética de cada resíduo de aminoácido da AT para a formação do complexo com a heparina. A partir dos cálculos ab initio realizados, foi proposto um refinamento na estrutura da heparina determinada por RMN, enquanto que as simulações de DM permitiram reinterpretar aspectos da estrutura tridimensional da AT determinada por cristalografia de raios-X. Adicionalmente, os dados obtidos sugerem que não há requerimento conformacional para a interação do IdoA com a AT Globalmente, os dados indicam que simulações de DM podem ser utilizadas para representar adequadamente a conformação da heparina, assim como para caracterizar e quantificar suas interações com a AT. Assim sendo, propomos o uso de simulações de DM do complexo entre a AT e a heparina, ou entre a AT e compostos derivados da heparina, como uma ferramenta útil no processo de desenvolvimento de novos agentes antitrombóticos e anticoagulantes.