53 resultados para Planejamento de reativos em sistemas descentralizados multi- áreas

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desenvolvimentos recentes na tecnologia de informação têm proporcionado grandes avanços no gerenciamento dos sistemas de transportes. No mundo já existem várias tecnologias testadas e em funcionamento que estão auxiliando na tarefa de controle da operação do transporte público por ônibus. Esses sistemas geram informações úteis para o planejamento e operação dos sistemas de transportes. No Brasil, os investimentos em tecnologias avançadas ainda são muito modestos e estão focados em equipamentos que auxiliam no controle da evasão da receita. No entanto, percebe-se um crescente interesse, por parte dos órgão gestores e operadores, em implementar sistemas automatizados para auxiliar na melhoria da qualidade dos sistemas de transportes e como forma de aumentar a produtividade do setor. Esse trabalho traz à discussão os sistemas avançados desenvolvidos para o transporte público coletivo, com o objetivo de definir o perfil da tecnologia avançada que está de acordo com as necessidades dos gestores e operadores brasileiros. Na realização do trabalho foi empregada uma ferramenta de planejamento denominada Desdobramento da Função Qualidade – QFD (Quality Function Deployment), bastante utilizada para direcionar os processos de manufatura e produto, e para hierarquizar os atributos considerados importantes para o gerenciamento do transporte público urbano no Brasil. O resultado do trabalho indica um grande interesse em implantar tecnologia avançada para auxiliar no monitoramento dos tempos de viagem e tempos perdidos durante a operação do transporte público. Essa tecnologia também é tida como capaz de melhorar o desempenho das linhas, através da manutenção da regularidade e pontualidade. Ainda, sistemas inteligentes que propiciam informações precisas aos usuários contribuem para melhorar a imagem do modal ônibus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The rapid growth of urban areas has a significant impact on traffic and transportation systems. New management policies and planning strategies are clearly necessary to cope with the more than ever limited capacity of existing road networks. The concept of Intelligent Transportation System (ITS) arises in this scenario; rather than attempting to increase road capacity by means of physical modifications to the infrastructure, the premise of ITS relies on the use of advanced communication and computer technologies to handle today’s traffic and transportation facilities. Influencing users’ behaviour patterns is a challenge that has stimulated much research in the ITS field, where human factors start gaining great importance to modelling, simulating, and assessing such an innovative approach. This work is aimed at using Multi-agent Systems (MAS) to represent the traffic and transportation systems in the light of the new performance measures brought about by ITS technologies. Agent features have good potentialities to represent those components of a system that are geographically and functionally distributed, such as most components in traffic and transportation. A BDI (beliefs, desires, and intentions) architecture is presented as an alternative to traditional models used to represent the driver behaviour within microscopic simulation allowing for an explicit representation of users’ mental states. Basic concepts of ITS and MAS are presented, as well as some application examples related to the subject. This has motivated the extension of an existing microscopic simulation framework to incorporate MAS features to enhance the representation of drivers. This way demand is generated from a population of agents as the result of their decisions on route and departure time, on a daily basis. The extended simulation model that now supports the interaction of BDI driver agents was effectively implemented, and different experiments were performed to test this approach in commuter scenarios. MAS provides a process-driven approach that fosters the easy construction of modular, robust, and scalable models, characteristics that lack in former result-driven approaches. Its abstraction premises allow for a closer association between the model and its practical implementation. Uncertainty and variability are addressed in a straightforward manner, as an easier representation of humanlike behaviours within the driver structure is provided by cognitive architectures, such as the BDI approach used in this work. This way MAS extends microscopic simulation of traffic to better address the complexity inherent in ITS technologies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação investiga os processos que levam células a se organizarem em certas configurações, focando propriedades topológicas, geométricas e aquelas originadas na sua dinâmica. Para tanto, começamos revisando propriedades de topologia de equilíbrio de sistemas que minimizam áreas de contato entre células. Prosseguimos com o estudo de estruturas de células biológicas, incorporando as devidas modificações provenientes das propriedades biológicas, sendo introduzida, por exemplo, a Hipótese da Adesão Diferenciada formulada por Steinberg (1975). Suas implicações são estudadas utilizando o Modelo Celular de Potts ao realizar simulações de Monte Carlo. Mostramos resultados das dinâmicas de reagrupamento celular que é um dos processos que ocorre na embriogênese e morfogênese, em que células se redistribuem de modo a formar padrões típicos. É feita uma análise, tanto teórica quanto por simulações, de como interações adesivas entre tipos diferentes de células, e estas com o meio, influenciam a evolução destas configurações. A seguir, tornamos evidente analogias entre tecidos e fluidos imiscíveis, de modo a explorar não apenas a influência de coesões e adesões celulares, como também propriedades viscoelásticas e de tensões superficiais apresentadas pelos agregados - estruturas macroscópicas constituídas por muitas subunidades celulares. Acompanhando os resultados teóricos, apresentamos observações experimentais de reorganização celular a partir de agregados aleatórios de células de hidras. A reorganização celular destes agregados é estudada a partir das configurações iniciais aleatórias até o momento em que se estabelece uma esfera com cavidade formada por duas camadas epiteliais, endoderme e ectoderme Neste estágio ocorrem os bursts, eventos de ruptura reversíveis do tecido superficial do agregado com expulsão do conteúdo contido na cavidade. É proposto um estudo via simulações deste fenômeno a fim de elucidar as propriedades básicas de deformações, adesões e movimentos de células num tecido. Ainda no contexto experimental, realizamos outras medidas nos agregados de hidra, como a obtenção de tensões superficiais e registro da dinâmica de arredondamento. Finalmente, unimos as considerações sobre topologias de estruturas celulares com as propriedades emergentes de interações de adesão com mais um elemento, mitose. Apresentamos modelos de crescimento celular e discutimos suas características para a dinâmica populacional de células. Ao introduzir dados sobre comportamentos regulatórios de proliferação celular, colocamos ênfase no estudo das patologias ao estudar câncer utilizando o Modelo de Gompertz como descrição da proliferação. Realizamos experiências utilizando 6 linhagens cancerígenas diferentes e propomos uma interpretação biológica dos parâmetros matemáticos que descrevem o crescimento. A hipótese por nós levantada é de que a forma da célula influencia no seu comportamento. Verificamos a viabilidade de tal hipótese através de uma série de simulações por Modelo Celular de Potts. Os resultados gerados se assemelham aos dados experimentais, de maneira que chegamos a conclusão final que processos intrínsecos regulatórios de uma célula (no caso o ciclo mitótico), propriedades adesivas de células, características fenotípicas e distribuições topológicas de um tecido, são intimamente interligados.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Com o objetivo de melhor se adaptar ao ambiente de competição (informacional) global, que se estrutura e se impõe a partir de uma ´divisão inter-regional do trabalho´, as regiões tendem a desenvolver estratégias de planejamento regional e urbano com o objetivo de impulsionar o parque produtivo informacional local. Intentam desta maneira compôr mecanismos locais que permitam a formação de um Sistema Local de Inovação, baseado na interação sinergética entre os atores sociais. Esta articulação regional trabalha em diversas esferas espaciais (e consequentemente temporais), uma vez que a fluida lógica estrutural do sistema informacional global (´espaço de fluxos´) difere dos mecanismos locais de articulação, pois estes estão ligados teluricamente às tradições culturais (´espaço de lugares´). Segundo Castells, o ´espaço de fluxos´ é definido como sendo um sistema de alcance global estruturado em redes (nós e eixos) permeadas por informações que circulam (eletronicamente) instantaneamente. Porém a dinâmica do sistema é gerada a partir do historicamente construído ´espaço de lugares´(local), articulado reflexivamente a partir da ação de três instituições internas (reconhecidas pelo modelo da Hélice Tripla como: universidades, empresas e governo). De maneira geral, podemos observar que a universidade, enquanto instituição empreendedora e voltada para a produção de inovações informacionais, passa a exercer importante função catalisadora deste processo de organização das forças produtivas regionais (a nível de ´espaço de lugares´) Reconhecendo que há uma tendência à incompatibilidade entre as esferas espaciais de articulação citadas (embora elas tenham uma existência ativa), esta dissertação irá sugerir a pertinência da observação de uma articulação espacial híbrida, tanto global-informacional quanto local-cultural (denominada ´espaço híbrido´), atuando estrategicamente na construção dos Sistemas Locais de Inovação. Desta maneira, com a finalidade de estruturar espacialmente os Sistemas Locais de Inovação, uma das principais estratégias que o planejador regional dispõe é a da formação e potencialização de clusters espaciais de inovação, na forma de programas de criação de pólos e/ou parques tecnológicos (e/ou tecnópoles). Tendo como objetivo a criação de um processo produtivo local sinergético e informacional, são projetadas e aplicadas políticas industriais e urbanas de longo prazo que buscam retirar o máximo possível da proximidade espacial existente e/ou induzida. Como estudo de caso, serão analisados projetos intra-urbanos atuantes nas áreas das Ciências da Vida. Inicialmente serão apresentados quatro casos internacionais, para por fim serem comparados ao projeto Porto Alegre Tecnópole (e em especial ao projeto Cidade Saúde de Porto Alegre).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Os Sistemas de Informação Geográfica vêm sendo cada vez mais utilizados em estudos envolvendo o planejamento e gerenciamento de recursos e meio-ambiente. A agricultura é uma das atividades humanas mais intimamente relacionadas com o meio ambiente. Este trabalho investiga o emprego desses sistemas para integrar diferentes informações relacionadas à produção agrícola e obter respostas que subsidiem o planejamento em regiões agrícolas.A área estudada é uma localidade do município de Não-me-Toque, situado no planalto médio do Rio Grande do Sul, entre as coordenadas 28°21' e 28°34'sul e 53°40' e 53°57'oeste. Os resultados evidenciaram as vantagens dos Sistemas de Informação Geográfica sobre os métodos convencionais de análise, especialmente no que se refere à velocidade, precisão e à associação dos dados de interesse à sua localização geográfica.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A linguagem síncrona RS é destinada ao desenvolvimento de sistemas reativos. O presente trabalho tem como objetivo criar meios que facilitem o uso da linguagem RS no projeto e implementação desses sistemas, permitindo que, à partir da especificação de um sistema reativo, seja realizada a sua implementação de forma automática. Deste modo, a linguagem RS é utilizada para a descrição do comportamento de um sistema em um alto nível de abstração, antes de serfeitas a decomposição do sistema em componentes de software ou hardware. A implmentação do protótipo do sistema computacional dedicado é obtida através de uma síntese automática desse modelo de alto nível. Foram implementados geradores de código que utilizam o código objeto fornecido pelo compilador da linguagem RS. Os geradores fazem a tradução para a linguagem C, para a linguagem JAVA, ou para a linguagem de descrição de hardware VHDL. A partir da síntese desses códigos poderá ser obtida a implementação do sistema em um micrcoomputador comercial, em um microcomputador Java de dedicado (ASIP Java), ou em um hardware de aplicação específica (ASIC). Foram realizados estudos de caso representativos dos sistemas reativos embaraçados e de tempo rel. Estes estudos de caso serviram para validar os geradores de código bem como para analisar o uso da linguagem RS no projeto e implementação desses sistemas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Planejamento estratégico de sistemas de informação é atualmente um desafio gerencial crítico. Novas abordagem para o desenvolvimento de planejamento de sistemas de informação podem auxiliar os gerentes a vencer este desafio. As teorias de aprendizagem organizacional e de processo decisório podem oferecer uma abordagem que contribua neste sentido. O objetivo deste estudo é o de conceber e desenvolver um modelo de planejamento estratégico de sistemas de informação tendo por base a análise das contribuições da aprendizagem organizacional e do processo decisório. Esta pesquisa caracteriza-se como um estudo predominantemente exploratório, sendo que o principal método de pesquisa utilizado é o de estudo de caso. Os principais resultados obtidos envolvem a análise dos princípios da aprendizagem organizacional e do processo decisório aplicados na prática em um processo de planejamento estratégico de sistemas de informação, o desenvolvimento de um modelo explicativo do relacionamento entre as abordagens prescritivas e descritivas, o modelo proposto e a especificação de uma ferramenta CASE (Sistema CASIS) para apoiar a operacionalização do modelo proposto. Ao atingir satisfatoriamente os objetivos propostos, os resultados contribuem com o desenvolvimento teórico da área de sistemas de informação e também com os gerentes e profissionais da área, provendo conhecimento para auxiliá- los a lidar com os principais problemas do processo de planejamento de sistemas de informação, mediante uma visualização diferente do processo de planejamento, em uma linha descritiva.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O objetivo deste trabalho é propor um modelo de gestão que integre Planejamento Estratégico, Gerenciamento de Processos e Avaliação de Desempenho, visando preencher uma lacuna identificada na gestão empresarial – a falta de integração entre as diretrizes estratégicas e a operação das empresas. Estes módulos são apresentados contemplando uma perspectiva histórica para a contextualização do problema, e suas inter-relações são discutidas. Considerando os indicadores de desempenho como elemento integrador dos outros dois módulos, faz-se a discussão e comparação de diversos modelos que se propõem a atender a necessidade atual de medição do desempenho organizacional. Da interação entre a revisão bibliográfica e aplicações práticas, chega-se ao modelo proposto, apresentando sua estrutura geral e seu procedimento para implantação, denominando-o “MEIO” – Modelo de Estratégia, Indicadores e Operações, com o qual se almeja estar contribuindo para a melhoria potencial da gestão das empresas. Este modelo se caracteriza por sua flexibilidade, permitindo que as empresas construam seu modelo de gestão por partes, começando por qualquer um dos módulos do MEIO, o que é importante dado que elas se encontram em estágios diferentes de desenvolvimento em termos de gestão. Além disso, como característica de sua proposta de integração, o próprio modelo induz a construção das outras partes que porventura não estejam devidamente implantadas ou em uso pela empresa. O modelo é aplicado em três empresas de diferentes segmentos, portes e estágios de maturidade em termos de gestão. Essas aplicações práticas do modelo MEIO, mesmo que parcialmente, mostram resultados quantitativos e qualitativos para as empresas, os quais são analisados e discutidos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A regulação de consultas especializadas tem se mostrado como uma das áreas mais problemáticas do Sistema Único de Saúde (SUS) no Brasil. Cabe aos gestores de saúde nos municípios, estados, e governo federal, estabelecerem mecanismos de regulação coerentes com o volume de recursos disponíveis e com o contingente populacional a atender. Diversas centrais de regulação para atendimentos especializados foram implantadas nas secretarias municipais de saúde e sistemas de informação foram criados como ferramentas para apoio a estas centrais. Seu escopo tem sido progressivamente ampliado, de maneira a incluir uma visão crítica das necessidades da população em relação à capacidade de atendimento dos prestadores de serviço. No processo de regulação de consultas especializadas, duas questões têm-se destacado: (1) para um dado caso, quais pacientes têm maior prioridade de atendimento, e (2) quais prestadores de serviço podem resolver melhor o caso? Fundamentado nestas duas questões, e a partir da consideração dos requisitos legitimados na área da assistência à saúde, este trabalho propõe um sistema para apoio à decisão de agendamento de consultas especializadas para servir às centrais de regulação. O sistema proposto integra análise de decisão multi-critério e programação linear para o agendamento das consultas, onde a alocação dos pacientes é definida em função da relevância relativa de um conjunto de critérios relacionados à noção de efetividade da assistência médica especializada e da capacidade de atendimento das unidades de assistência credenciadas. Da integração destes modelos resulta uma representação que leva em conta simultaneamente os aspectos relacionados ao diagnóstico médico e suas conseqüências na vida do paciente, os aspectos relacionados às instalações e processos disponíveis nas unidades assistenciais credenciadas, e os aspectos relacionados à dificuldade de acesso do paciente a estas unidades. O uso do sistema permite que as informações pessoais e médicas do paciente, assim como as informações sobre as unidades assistenciais, sejam incorporadas em um modelo de programação linear de maneira a maximizar a efetividade do conjunto de solicitações para cada especialidade. Os modelos foram implementados em um sistema informatizado, e aplicados em uma parcela dos serviços da Secretaria Municipal de Saúde de Porto Alegre para as especialidades de cardiologia e cirurgia vascular. O sistema e os resultados obtidos foram validados por um grupo de peritos, que confirmou a viabilidade do uso deste modelo como uma ferramenta para a otimização da alocação de recursos no atendimento especializado pelo SUS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O interesse de pesquisa da comunidade de Inteligência Artificial em Sistemas Multiagentes tem gerado o crescimento da utilização de técnicas de agentes nas mais diversas áreas da ciência da computação. Isso ocorre, principalmente, devido à variedade de aplicações em que esses sistemas podem ser usados, como por exemplo: jogos de computadores, interfaces adaptativas, simulação e controle de processos industriais. The Robot World Cup Initiative (RoboCup) é uma tentativa de estimular a área de Inteligência Artificial e, principalmente de Sistemas Multiagentes, por promover um problema padrão, jogar futebol, onde uma ampla cadeia de tecnologias podem ser integradas, examinadas e comparadas. A utilização do ambiente da RoboCup para a simulação de uma partida de futebol (simulador Soccerserver) permite a avaliação de diferentes técnicas de Sistemas Multiagentes (planejamento de estratégias, conhecimento em tempo real, colaboração de agentes, princípios de agentes autônomos, entre outros) e estimula as pesquisas, investigações e testes que possibilitem a construção gradativa de agentes avançados. O presente trabalho tem por objetivo o desenvolvimento de um time de futebol para o simulador Soccerserver. A idéia principal é desenvolver agentes jogadores que demonstrem um nível considerável de competência para a realização de suas tarefas, como percepção, ação, cooperação, estratégias pré-definidas, decisão e previsão. Inicialmente, apresenta-se uma visão geral sobre Inteligência Artificial Distribuída e sobre o simulador Soccerserver, pré-requisitos para o restante do trabalho. A seguir, é realizado um estudo sobre algumas arquiteturas de agentes (clientes) do Soccerserver. A arquitetura proposta na dissertação, suas principais características e a sua materialização em um protótipo desenvolvido correspondem à parte principal do trabalho. Finalmente são apresentados os testes realizados e as conclusões do trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa propõe um modelo de planejamento e controle da segurança no trabalho (PCS), o qual pode ser integrado a sistemas existentes de planejamento e controle da produção (PCP). Ambos processos (PCP e PCS) devem atender a quatro requisitos mínimos: hierarquização da tomada de decisão, continuidade, visão sistêmica e participação dos diferentes intervenientes no empreendimento. O modelo foi desenvolvido empiricamente, em três etapas. Inicialmente, por meio de um estudo de caso exploratório, as principais funções do modelo foram identificadas e algumas de suas ferramentas operacionais foram testadas. A seguir, foram conduzidos dois estudos empíricos, utilizando pesquisa-ação, em canteiros de obras industriais. Com base nos resultados destes estudos foi proposta a versão [mal do modelo de PCS, assim como foram estabelecidos requisitos que uma empresa deve atender para implementar o mesmo. Ainda foram identificadas oportunidades de aperfeiçoamento do modelo, a partir de um levantamento de boas práticas de PCS adotadas por um conjunto de sete empresas líderes na área, no Brasil e nos Estados Unidos. O modelo propõe que a segurança seja integrada ao PCP em três níveis hierárquicos deste processo. No nível de longo prazo, o planejamento da segurança é configurado pelo desenvolvimentode análises preliminaresde riscos (APR) dos processos construtivos. A atualização e detalhamento da implantação destes planos é então feita por meio de sua integração aos níveis de médio e curto prazo do PCP. Dois elementos do modelo devem ser enfatizados: o indicador PPS (Percentual de Pacotes de Trabalho Seguros), o qual permite um detalhado e sistemático controle do desempenho em segurança; e o ciclo participativo para identificação e controle de riscos, um método para identificar e controlar riscos com base nas percepções dos trabalhadores.