134 resultados para Programação inteira mista
Resumo:
Este trabalho trata dos problemas de otimização de minimização de volume com restrição de flexibilidade e freqüência natural e minimização de flexibilidade com restrição de volume. Os problemas são resolvidos para estruturas bidimensionais e tridimensionais. As equações diferenciais de equilíbrio são solucionadas de forma aproximada através do método dos elementos finitos, em um subespaço de dimensão finita. O método utilizado no estudo é o da otimização topológica, o qual consiste em encontrar dentro de um domínio pré-existente uma distribuição ideal de material. São avaliadas técnicas como programação linear e critério de ótimo. Em ambos os casos são utilizadas sensibilidades calculadas analiticamente. Para a otimização com restrição modal, problemas característicos como autovalores repetidos e normalização do autovetor são tratados. Ferramentas usadas na otimização topológica, como método da continuação, penalização e filtragem são discutidos. São abordados também problemas e características inerentes ao processo de otimização topológica, tais como instabilidades de tabuleiros, dependência de malha e sensibilidade da topologia a diferentes condições de contorno. Os resultados obtidos permitem avaliações referentes à otimização topológica (geometrias, ou seja, topologias resultantes) sob diferentes condições, utilizando-se as ferramentas discutidas nesse trabalho.
Resumo:
A realidade de mudanças no agronegócios requer novas ferramentas gerenciais dos proprietários rurais e o conhecimento ganha importância como fator gerador de diferencial competitivo. O objetivo desta tese é desenvolver um método dinâmico de análise da criação de conhecimento para o elo da produção no agronegócios no Brasil e na Austrália com base no modelo de Nonaka e Takeuchi (1997). A presente pesquisa caracteriza-se por um estudo descritivo de caráter qualitativo, complementada por dados quantitativos. É realizado um estudo de dois casos, utilizando-se de documentação e observação in loco, questionário, entrevista e focus group. As realidades estudadas localizam-se no Rio Grande do Sul, Brasil, e em Queensland, na Austrália. Os dados da pesquisa possibilitaram o desenvolvimento de uma figura representativa do modo como ocorre a criação de conhecimento nas duas realidades. Da figura foi feito um desdobramento e desenvolveu-se um método dinâmico de análise da criação de conhecimento para o elo da produção no agronegócios. Os resultados demonstraram haver significativas similaridades e diferenças entre as realidades, sendo, no Brasil, os produtores rurais inseridos num contexto cooperativo (Cooperativa Tritícola Mista Alto Jacuí – Cotrijal) e, na Austrália, os negócios conduzidos individualmente. Para a ocorrência da criação de conhecimento é necessária a existência de grupos de relacionamento e de certa liderança em nível de propriedade, de comunidades de prática (CoPs) ou da cooperativa. O aspecto cultural e o estilo das relações pareceram exercer forte influência para que as trocas ocorram e para a maior ampliação da atuação das CoPs, as quais podem ser suporte para a criação de conhecimentos.As CoPs não se constituem num processo tecnológico e, sim, num processo social e cognitivo; assim, sua formação nas CoPs não parece depender somente de tecnologia, mas do estabelecimento de relações informais, nas quais as pessoas podem utilizar esses ambientes para definir suas verdades quanto às suas posturas frente aos processos de mudança. A forma de conduzir os negócios pode afetar o modo como se dá a criação de conhecimento, pois, numa propriedade onde as pessoas buscam socializar, questionar e inovar constantemente, evidencia-se haver maior espaço para transformar conhecimento tácito em explícito; assim, pessoas mais abertas ao novo e ao questionamento de suas práticas demonstram apresentar maiores possibilidades para criar um campo de interação para que o conhecimento seja criado. O estudo mostrou que há um grande percurso entre o produtor rural ter conhecimento e a capacidade de torná-lo uma atitude que possibilite trazer bons resultados nos negócios.
Resumo:
Este trabalho apresenta um mapeamento centrado nas construções não usuais da linguagem Nautilus, para a linguagem convencional, no caso Java, mantendo propriedades com atomicidade que são requisitos da semântica formal da linguagem. Nautilus é originalmente uma linguagem de especificação baseada em objetos, textual que suporta objetos concorrentes e não deterministas. Desde então a linguagem foi modificada aom extensões como classes e uma notação diagramática, além de se investigar seu uso como linguagem de programação. Suas construções incomuns (reificação, agregação, etc.) são baseados em seu domínio semântico: Automâtos Não Sequenciais. Este domíno satisfaz composição diagonal, i.e refinamentos se compõem (verticalmente) refletindo uma descrição gradual de sistemas, envolvendo múltiplos níveis de abstração, e distribui-se através de combinadores (horizontalmente), o que significa que o refinamento de um sistema composto é a combinação de do refinamento de suas partes.O trabalho inclui um mapeamento inicial de um subconjunto da linguagem(objeto base, reificação, agregação e visão), uma versão ampliada para abranger mais construções( interação e classes), e uma versão refinada mais concorrente e sugestões de modificação na linguagem.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
A variação temporal e espacial da ecologia de lagos, estuários e reservatórios está relacionada com a variação na composição da população de fitoplâncton, já que esta comunidade é a base da cadeia alimentar marinha e lacustre. Esta pesquisa desenvolveu um modelo para estimativa da dinâmica de biomassa de fitoplâncton, considerando os mecanismos de transporte no meio aquático, crescimento e perdas de sua biomassa. O modelo possui três módulos: (a) hidrodinâmico, que trata dos fluxos quantitativos do meio, associado a um algoritmo de secagem/inundação; (b) de transporte, que trata dos mecanismos de transporte das substâncias no meio; e (c) biológico, que retrata os mecanismos biológicos relacionados ao fitoplâncton. O módulo hidrodinâmico foi resolvido por um esquema semi-implícito de diferenças finitas, com uma abordagem mista Euleriana-Lagrangiana para os termos advectivos. Para os módulos restantes foi utilizado um esquema mais simples, de diferenças centrais. O modelo foi aplicado no sistema formado pela Lagoa Mangueira e Banhado do Taim localizado na parte sul costeira do estado do Rio Grande do Sul. Este sistema está inserido no Sistema Hidrológico do Taim como unidade de conservação federal, onde se desenvolve o projeto PELD (Pesquisas Ecológicas de Longa Duração). A hidrodinâmica do sistema foi ajustada e verificada apresentando bons resultados. Testes de secagem e inundação mostraram que as tendências esperadas foram obtidas. O aprimoramento da solução numérica do modelo foi comprovado através de testes de preservação de volume e massa em sistemas conservativos. A análise de sensibilidade dos parâmetros do módulo biológico mostrou que os parâmetros para os quais o modelo é mais sensível a alterações são aqueles relacionados aos efeitos de temperatura nas algas e as perdas por respiração e consumo por zooplâncton. Os cenários de análise propostos proporcionaram uma maior compreensão do transporte do material particulado suspenso e do material escalar genérico, assim como a dinâmica e as florações de algas no sistema em condições físicas e meteorológicas reais.
Resumo:
Os objetivos da presente tese de doutorado foram os de buscar novos antipsicóticos atípicos de baixo preço comercial e também procurar entender o mecanismo de ação que leva a um perfil antipsicótico atípico. Os resultados da tese são divididos em duas partes, de acordo com sua natureza, em experimentais (primeira parte) e teóricos (segunda parte). Para o desenvolvimento da primeira parte, foi necessária primeiramente a programação de um software para medir locomoção em roedores após filmagem com webcam. A seguir, foram investigados os efeitos da guanosina, flunarizina e cinarizina em modelos animais de psicose, bem como em outros paradigmas comportamentais. A guanosina foi escolhida para estudo uma vez que tem se mostrado que ela interage com o sistema glutamatérgico – que sabidamente está envolvido na fisiopatologia da esquizofrenia – promovendo a captação astrocitária de glutamato. Já a flunarizina e a cinarizina, dois bloqueadores de canal de cálcio empregados para tratar enxaqueca e vertigem foram escolhidas pelo fato delas produzirem sinais e sintomas extrapiramidais em pacientes idosos, o que posteriormente foi relacionado às suas propriedades como antagonistas moderados dos receptores dopaminérgicos do tipo D2 A guanosina diminuiu o aumento de locomoção induzido por um antagonista NMDA (MK-801), enquanto que não apresentou efeito sobre o aumento de locomoção induzido por anfetamina, de forma que sua utilidade como potencial antipsicótico deve ser ainda melhor estudada. Tanto a flunarizina quanto a cinarizina foram capazes de diminuir o aumento de locomoção induzido por MK-801 e por anfetamina em doses que não causam efeitos catalépticos importantes. Portanto, foi concluído que estes dois compostos apresentam um potencial perfil de antipsicótico atípico, com as vantagens de já estarem disponíveis para uso comercial, boa tolerabilidade e baixo custo quando comparados com os antipsicóticos atípicos disponíveis comercial. A segunda parte da tese apresenta alguns resultados teóricos matemáticos que podem ser derivados da teoria da lei de ação das massas aplicada ao binding de receptores, utilizando também resultados experimentais já conhecidos de PET Estes resultados apresentam insights ao entendimento das diferenças entre os perfis antipsicóticos atípicos e típicos em relação à geração de sinais extrapiramidais. É discutido que fatores culturais e comerciais relacionados à posologia atual empregada no tratamento com antipsicóticos típicos podem ser os responsáveis pelas diferenças de perfis, uma vez que alguns deles são prescritos em doses proporcionalmente maiores em relação à sua afinidade, atingindo assim maiores níveis de bloqueio dopaminérgico no estriado. Uma curta meia-vida plasmática também é apontada como um possível parâmetro importante na geração de um perfil atípico. É mostrado ainda alguns erros de concepção relacionados ao curso temporal da ocupação dopaminérgica que tem sido atualmente cometidos na literatura científica, como o conceito de meia-vida de ocupação de receptores. Como um último resultado teórico, é proposto um algoritmo para a redução de dose em pacientes tratados com antipsicóticos apresentando sinais e sintomas extrapiramidais.
Resumo:
Este trabalho aborda o projeto otimizado de transdutores eletro-mecânicos baseados no fenô- meno da piezeletricidade e submetidos a não-linearidade geométrica. Para este m, é proposta uma formulação de equilíbrio para descrever o movimento nito de um corpo piezelétrico e a sua discretização por meio do método dos Elementos Finitos. Problemas de equilíbrio com pontos limites podem ser corretamente simulados com a abordagem de solução proposta, pois questões como a imposição de comprimento de arco em problemas acoplados são discutidas. Diferentes métodos de controle de arco são discutidos e é proposta a consideração do método dos Deslocamentos Generalizados como um tipo de controle de comprimento de arco da família das restrições ortogonais. A formulação de otimização proposta consiste na maximização de componentes do vetor de estado de alguns pontos da estrutura (portas de saída) com restrição de volume e valores de algumas posições do vetor de estado. A análise de sensibilidade proposta, baseada na abordagem adjunta, é su cientemente geral para permitir o projeto de atuadores e sensores e permite a aplicação de condições de contorno essenciais não-homogêneas, como é o caso da diferença de potencial. O método das Assíntotas Móveis Generalizadas (GMMA) é utilizado conjuntamente com a tradicional Programação Linear Sequencial (SLP) para a solução do problema de otimização e suas implementações são discutidas em detalhes. Resultados mostrando a in uência da não-linearidade geométrica e/ou rigidez externa nãolinear no projeto de transdutores piezelétricos são apresentados e discutidos.
Resumo:
Esta é uma pesquisa sobre mídia e política que aborda o uso do rádio pelo governo da Frente Popular em Porto Alegre, no período entre abril de 1989 e setembro de 1990. É um estudo de caso que trata do sistema de monitoração de rádio adotado pelo governo da Frente Popular em seis emissoras de rádio ( Gaúcha, Guaíba, Farroupilha, Princesa, Bandeirantes e Pampa) durante 24 horas. Defende-se a tese de que o governo da Frente Popular, em Porto Alegre, ao responder aos ouvintes, apropriou-se de um lugar específico da mídia para dar visibilidade ao seu projeto político de esquerda constituindo um novo cenário da disputa política. Com esta estratégia de responder a interpelação dos ouvintes, a Frente Popular pautou a mídia e provocou uma alteração nos critérios de noticiabilidade no rádio ao mesmo tempo em que estabeleceu um controle da programação das emissoras. Os objetivos do estudo são verificar se a estratégia de Comunicação da Prefeitura Municipal de Porto Alegre de controlar as demandas dos cidadãos, através do rádio, resulta em créditos político; entender como, em uma sociedade dominada pela informação, produto de grandes empresas de comunicação, consegue ser seduzida pela estratégia política de um governo; compreender a eficácia do rádio como instrumento de uso político de governos democráticos; reafirmar que a pesquisa de campo, que leva em conta a prática e a observação dos cidadãos comuns e seu cotidiano, é a base para todo e qualquer estudo sobre a ação da comunicação, especialmente, do jornalismo na sociedade. O governo da Frente Popular através das diferentes secretarias e autarquias respondia aos ouvintes, prometendo executar o serviço no espaço da própria emissora que havia veiculado a reclamação. Esta trama entre rádio, ouvinte e governo resulta no fortalecimento do projeto político da Frente Popular.
Resumo:
Modelos de bancos de dados têm sido progressivamente estendidos a fim de melhor capturar necessidades específicas de aplicações. Bancos de dados versionados, por exemplo, provêm suporte a versões alternativas de objetos. Bancos de dados temporais, por sua vez, permitem armazenar todos os estados de uma aplicação, registrando sua evolução com o passar do tempo. Tais extensões sobre os modelos de dados se refletem nas respectivas linguagens de consulta, normalmente sob a forma de extensões a linguagens conhecidas, tais como SQL ou OQL. O modelo de banco de dados TVM (Temporal Versions Model ), definido sobre o modelo de banco de dados orientado a objetos, suporta simultaneamente versões alternativas e o registro de alterações de objetos ao longo do tempo. A linguagem de consulta TVQL (Temporal Versioned Query Language), definida a partir da linguagem de consulta SQL, permite recuperar informações do modelo de dados TVM. As construções introduzidas em TVQL têm como objetivo tornar simples a consulta do banco de dados em diversos pontos da linha temporal. Apesar das vantagens da utilização da linguagem TVQL para resgatar dados temporais do modelo TVM, existem algumas limitações importantes para seu aprimoramento. Uma delas é a alta complexidade do modelo TVM, proveniente da integração de conceitos variados como estados alternativos e rótulos temporais. Outro ponto é que, até o presente momento, não existe um interpretador para TVQL, impedindo uma experiência prática de programação de consultas. O objetivo principal deste trabalho é o desenvolvimento de uma especificação formal para a linguagem TVQL, tornando possível um estudo consistente de suas construções. Adicionalmente, uma especificação formal serve como documentação para futuras implementações de interpretadores. Neste trabalho foi desenvolvido um protótipo de avaliador de consultas e verificador de tipos para um núcleo funcional da linguagem TVQL, possibilitando também uma experimentação prática sobre os modelos propostos.
Resumo:
Nesse contexto, constatou-se que os associados, os clientes, concorrentes, fornecedores, funcionários, instituições e o governo (em todos os seus níveis) tiveram forte influência neste processo, além de poder afirmar-se que existem, ainda, outros stakeholders que, muitas vezes, não influenciaram o processo de mudança, pois desconheciam e/ou não exerciam seu poder, sua legitimidade e sua urgência. Esta pesquisa teve como objetivo descrever as mudanças estratégicas ocorridas na Cotrijal – Cooperativa Agropecuária, situada na cidade de Não Me Toque, Estado do Rio Grande do Sul – durante os anos de 1993 a 2003, bem como os stakeholders influentes neste processo (de mudanças), a partir da percepção da coalizão dominante. Para tanto, a estratégia de pesquisa empregada foi o estudo de caso, com caráter exploratório e qualitativo, dentro de uma visão longitudinal e histórica. Os dados primários foram coletados através de entrevistas semi-estruturadas com a coalizão dominante. Já, os dados secundários foram provenientes de documentos da organização, revistas, jornais e sites especializados. As mudanças ocorridas na Cooperativa foram organizadas em sete períodos estratégicos, os quais refletiram estágios diferentes nas estratégias da Cotrijal. Após a definição dos períodos, analisaram-se e classificaram-se os principais stakeholders do processo de mudança estratégica da Cooperativa – a partir do Cubo da Mudança – e sua influência na definição e formulação das mudanças estratégicas (Continua).
Resumo:
O comércio baseado em contêineres é tipicamente desequilibrado com relação às quantidades de contêineres de exportação e de importação. Não é raro haver contêineres não utilizados em um local ao mesmo tempo em que contêineres vazios são necessários em outros. Esta tese apresenta um modelo de rede integrado combinando realocação de contêineres vazios e operações de transbordo de contêineres cheios e vazios. Na rede, os nós representam clientes (demandando contêineres vazios para ser carregados e enviados a outros clientes da rede), companhias de leasing assim como portos e depósitos em terra (pontos de transbordo), enquanto que os arcos representam rotas de transporte (por navio, trem ou caminhão) conectando os nós. O modelo matemático subjacente opera em estágios. Primeiro, a demanda de contêineres vazios é ajustada, considerando os suprimentos e demandas globais dos clientes. A seguir, um modelo de transbordo determina a solução de mínimo custo, considerando transporte, processamento e armazenagem de unidades de contêineres, utilizando programação linear. A partir desse resultado, os roteiros de transporte são registrados e controlados dinamicamente. O processamento continua repetindo os estágios ciclicamente, para um dado horizonte de tempo. O modelo é bastante flexível, permitindo a configuração de vários parâmetros, tais como demanda, tempo de processamento e tempo de armazenagem. Um sistema de simulação foi implementado utilizando parâmetros gerados aleatoriamente, dentro de limites preestabelecidos, a fim de avaliar a complexidade do modelo, testar diferentes soluções e verificar a formulação matemática.
Resumo:
Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.
Resumo:
A procura por uma forma de, fácil e rapidamente, retirar conhecimento de um especialista e transmiti-lo a outros profissionais tem levado ao desenvolvimento de diversas pesquisas que unem metodologias de raciocínio com o atendimento a problemas. Os ambientes corporativos demonstram sua eficiência baseados na maneira como desenvolvem suas tarefas. Cada vez mais, buscam alternativas que os ajudem a responder por atividades e problemas ocorridos, as quais podem significar um processo de manutenção que pode decidir o nível de eficiência e competência da organização. Estas alternativas compreendem ferramentas ou profissionais, os quais transformaram-se em especialistas por adquirirem conhecimento e capacidade em prover soluções a problemas. As características de um problema podem ser alteradas sob alguns aspectos mas, mesmo em domínios mais complexos como a gerência de redes de computadores ou a medicina, algo que foi aprendido sempre tem utilidade em novas situações. Este é o tipo de conhecimento e raciocínio próprios de um especialista, ou seja, o uso de suas experiências. Raciocínio Baseado em Casos (case-based reasoning) é uma metodologia de inteligência artificial que apresenta a forma de raciocínio semelhante à de um especialista, onde o raciocínio é obtido por um processo de recordar um exemplo concreto. Porém, as pesquisas que a utilizam, geralmente, desenvolvem trabalhos para um específico tipo de domínio de problema, o que resulta em alterações de programação, caso estes desejem ser adaptados para outros domínios. Este procedimento, muitas vezes, é tido como difícil e trabalhoso Baseando-se neste contexto, o presente trabalho apresenta um mecanismo que fornece inclusões de conhecimento de especialistas, independente do tipo de domínio de problema, e raciocínio sobre este conhecimento, de forma a auxiliar usuários com problemas referentes ao domínio cadastrado. Para tanto, a implementação baseou-se na união de sistemas de registros de problemas (trouble ticket systems) com raciocínio baseado em casos, propondo uma forma auxiliar no conhecimento e busca de soluções em domínios de problema. O estudo, além de fazer uso das metodologias citadas acima, usa o domínio de gerenciamento de segurança em redes de computadores para exercitar suas funções, provar sua utilidade e dificuldades. Assim, um estudo mais detalhado sobre os problemas que cercam o domínio de segurança em redes TCP/IP foi desenvolvido.
Resumo:
The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.
Resumo:
Este trabalho apresenta um modelo de análise estática de programas orientados a objetos, o qual se denomina DEPAnalyzer (DEPendencies Analyzer). O modelo realiza a análise das dependências entre as classes de um programa, ou seja, os relacionamentos estabelecidos entre estas. As classes representam as entidades estáticas, as quais em tempo de execução darão origem a conjuntos de objetos. Através da simulação do programa o modelo consegue obter as informações sobre quem se relaciona com quem e qual é a intensidade destes relacionamentos. Estas informações visam auxiliar no processo de escalonamento de um programa em uma arquitetura distribuída. Para expressar estes relacionamentos podem ser gerados dois grafos, o grafo de dependências e o grafo de invocações. A geração de um ou de ambos depende do propósito de utilização, ou seja, alocação inicial ou redistribuição dos objetos. O grafo de dependências apresenta uma versão resumida dos relacionamentos. Este adequa-se a auxiliar no processo de distribuição inicial por propiciar um panorama geral dos relacionamentos sem considerar a ordenação de ocorrência das ações. Por sua vez o grafo de invocações tem como propósito a discriminação da ordem de ocorrência das ações de uma aplicação. Viabilizando a utilização deste por parte do processo de redistribuição dos objetos.