168 resultados para Escalonamento
Resumo:
Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.
Resumo:
Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.
Resumo:
Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico. O estudo da estabilidade da representação de redes frente à variação amostral dos dados, realizado com base em simulações envolvendo 500 réplicas em 6 níveis de probabilidade de inclusão das arestas nas réplicas, fornece evidência em favor da validade dos resultados obtidos.
Resumo:
A linguagem de programação Java vem sendo uma das escolhidas para a implementação de aplicações compostas por objetos distribuídos. Estas aplicações caracterizam-se por possuir comportamento complexo e, portanto, são mais difíceis de depurar e refinar para obter melhores desempenhos. Considerando a necessidade do desenvolvimento de uma ferramenta de monitoração para o modelo de objetos distribuídos, que colete informações mais detalhadas sobre a execução da aplicação, é apresentado neste trabalho um ambiente de monitoração de aplicações distribuídas escritas em Java, o DOMonitor. Um dos objetivos do DOMonitor é obter o comportamento que a aplicação apresenta durante a execução, possibilitando a detecção de comportamentos equivocados e seu respectivo refinamento. O DOMonitor é voltado para aplicações compostas por objetos distribuídos e caracteriza-se por identificar principalmente: (i) o comportamento dinâmico das threads; (ii) a utilização dos métodos de sincronização; e (iii) a comunicação entre os entes distribuídos da aplicação. O DOMonitor está fundamentado em quatro premissas: (i) ser transparente para o usuário, não exigindo anotações no código fonte; (ii) apresentar uma organização modular, e por isto ser flexível e expansível; (iii) ser portável, não exigindo nenhuma alteração na Maquina Virtual Java; e (iv) operar de forma a garantir a ordem dos eventos previstos pelo programa. Os dados produzidos pelo DOMonitor podem ser utilizados com diversas finalidades tais como visualização da execução, escalonamento e como suporte à execução de aplicações móveis. Para comprovar esta versatilidade, foi proposta a integração do sistema a dois outros projetos, o Pajé e o ISAM. O projeto ISAM utilizará os dados monitorados para tomadas de decisão durante o curso da execução e o projeto Pajé permite a visualização gráfica das características dinâmicas de uma aplicação Java.
Resumo:
A questão do posicionamento de marcas é central ao processo de gerenciamento de marketing, pois produtos e serviços são adquiridos em grande parte em função da imagem que constroem na mente dos consumidores e clientes. Este trabalho busca explorar as relações existentes entre posicionamento de marca, preferências dos indivíduos e comportamento de compra através do tempo. Mais especificamente, ele se propõe a examinar as relações entre distância de uma marca ao ponto ideal num mapa perceptual e sua participação de mercado, e o quanto mudanças nessa distância através do tempo são acompanhadas de ganhos ou perdas de participação de mercado. Nessa tarefa são utilizadas técnicas de análise multivariada como o escalonamento multidimensional, a fim de elaborar os mapas perceptuais, e o mapeamento de preferências, a fim de localizar pontos ideiais nos mapas elaboradas. Também é utilizada a técnica de análise procrusteana, no processo de comparação de diferentes mapas perceptuais. Uma vez determinadas as distâncias das marcas ao ponto ideal e suas variações entre dois momentos no tempo, tais medidas são correlacionadas às participações de mercado das marcas, e suas variações. Os resultados obtidos no estudo empírico indicam que a variável "distância ao ponto ideal no mapa perceptual" é boa candidata a um indicador de participação de mercado, presente e futura. No entanto, esta distância não se mostra um bom indicador das variações na participação de mercado propriamente ditas. Outro resultado interessante diz respeito ao conceito de equilíbrio entre a ordenação das marcas em função das distâncias ao ponto ideal e ordenação das marcas em função da participação de mercado, sugerindo que quando existe uma discordância nestas ordens, as participações de mercado das mrcas tendem a mudar na direção de reduzir este desequilíbrio.
Resumo:
Apesar de diversos modelos assumirem que os preços não se ajustam sincronizadamente, tanto a evidência empírica quanto a teórica são ambíguas. Este trabalho tem por objetivo identificar o comportamento dos reajustes de preço, analisando uma extensa base de dados brasileira. Foi encontrada uma evidência de escalonamento, mas quanto mais agregado são os dados, mais perto da sincronização perfeita eles estão. A economia brasileira também mostrou um alto grau de heterogeneidade, tanto na frequência quanto na sincronização dos ajustes de preço entre os produtos, as quais ainda variam com a taxa de inflação.
Resumo:
A FGV Projetos desenvolve e implanta escritórios que atendam à necessidade de uma estrutura de governança específica com procedimentos de controle, utilização de ferramentas de gestão, tratamento e escalonamento rápido de problemas e riscos, gestão de documentação oficial e programação das apresentações do status de andamento para todos os níveis hierárquicos envolvidos nos projetos.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
Este trabalho apresenta um modelo de análise estática de programas orientados a objetos, o qual se denomina DEPAnalyzer (DEPendencies Analyzer). O modelo realiza a análise das dependências entre as classes de um programa, ou seja, os relacionamentos estabelecidos entre estas. As classes representam as entidades estáticas, as quais em tempo de execução darão origem a conjuntos de objetos. Através da simulação do programa o modelo consegue obter as informações sobre quem se relaciona com quem e qual é a intensidade destes relacionamentos. Estas informações visam auxiliar no processo de escalonamento de um programa em uma arquitetura distribuída. Para expressar estes relacionamentos podem ser gerados dois grafos, o grafo de dependências e o grafo de invocações. A geração de um ou de ambos depende do propósito de utilização, ou seja, alocação inicial ou redistribuição dos objetos. O grafo de dependências apresenta uma versão resumida dos relacionamentos. Este adequa-se a auxiliar no processo de distribuição inicial por propiciar um panorama geral dos relacionamentos sem considerar a ordenação de ocorrência das ações. Por sua vez o grafo de invocações tem como propósito a discriminação da ordem de ocorrência das ações de uma aplicação. Viabilizando a utilização deste por parte do processo de redistribuição dos objetos.
Resumo:
No presente trabalho descrevemos nossos resultados relativos à investigação da dinâmica de solvatação mecânica por meio de simulações por dinâmica molecular, respeitando o regime da resposta linear, em sistemas-modelo de argônio líquido com um soluto monoatômico ou diatômico dissolvido. Estudamos sistematicamente a influência dos parâmetros moleculares dos solutos (tamanho, polarizabilidade) e da densidade frente a vários modelos de solvatação. Funções de Correlação Temporal da Energia de Solvatação foram calculadas com relação à correlações de n-corpos (n = 2; 3) distinguindo interações repulsivas e atrativas para ambos os sistemas líquidos. Também obtivemos segundas derivadas temporais dessas funções referindo-se à parcelas translacionais, rotacionais e roto-translacionais na solução do diatômico. Encontramos que funções de correlação temporal coletivas podem ser razoavelmente bem aproximadas por correlações binárias a densidades baixas e, a densidades altas, correlações ternárias tornam-se mais importantes produzindo um descorrelacionamento mais rápido das funções coletivas devido a efeitos de cancelamento parciais. As funções de correlação para interações repulsivas e atrativas exibem comportamentos dinâmicos independentes do modelo de solvatação devido a fatores de escalonamento linear que afetam apenas as amplitudes das dessas funções de correlação temporal. Em geral, os sistemas com grau de liberdade rotacional apresentam tempos de correlação mais curtos para a dinâmica coletiva e tempos de correlação mais longos para as funções binárias e ternárias. Finalmente, esse estudo mostra que os sistemas contendo o diatômico relaxam-se predominantemente por mecanismos translacionais binários em modelos de solvatação envolvendo alterações apenas na polarizabilidade do soluto, e por mecanismos rotacionais atrativos binários em modelos envolvendo alterações no comprimento de ligação.
Resumo:
O objetivo do presente estudo foi investigar as condições ergonômicas da situação de trabalho dos Auxiliares de Enfermagem em uma unidade de clínica geral de um hospital privado na cidade de Curitiba, Paraná, bem como sugerir melhorias a partir da situação caracterizada. Com a aplicação do método da Análise Ergonômica do Trabalho (AET), pôde-se verificar a realidade desses profissionais, caracterizando suas tarefas, registrando a existência de distanciamento entre tarefa prescrita e real. Os resultados obtidos evidenciaram problemas no âmbito organizacional como a montagem inadequada da escala de divisão de pacientes, o quadro de pessoal abaixo da exigência mínima estabelecida pelo Conselho Federal de Enfermagem (COFEN), a falta e a má conservação de materiais e equipamentos e, em relação ao posto de trabalho, o dimensionamento inadequado dos espaços para trânsito de pessoas e equipamentos. Concluiu-se que os problemas de maior relevância são de origem organizacional e que os mesmos favorecem e, até mesmo, intensificam os relativos ao posto de trabalho, contribuindo para o elevado índice de atestados e insatisfação entre os Auxiliares de Enfermagem. O estudo é finalizado com sugestões de melhorias, entre elas, o redimensionamento do número de leitos nas enfermarias e quadro de pessoal, promoção de rodízio dos Auxiliares de Enfermagem entre postos de diferentes níveis de exigência, escalonamento apropriado na distribuição de pacientes de acordo com a gravidade do quadro clínico, formação de comitês com reuniões periódicas para discussão de problemas existentes e outras possíveis soluções.
Resumo:
O presente trabalho se propõe a analisar o processo adaptativo de empresas ao ambiente e sua influência na eficácia organizacional. Focaliza aspectos da Área de Teoria e Comportamento Organizacionais tanto no que tange à aspectos estruturais quanto à processos. Na parte estrutural a ênfase situa-se na diferenciação horizontal e na parte voltada aos processos, o enfoque é sobre o aspecto integrativo. Este estudo abre perspectivas para trabalhos posteriores que pretendam uti lizar a análise ambiental para pesquisas em empresas situadas em outros setores, com o intuito de se ter uma visão a nível mais abrangente da adaptação empresarial em nossa realidade, e um escalonamento e caracterização dos múltiplos ambientes em que se inserem as organizações.