20 resultados para modular crystallizer
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A Coordenação Modular pode ser entendida como a ordenação dos espaços na construção civil. Surgiu entre a Primeira (1914-1918) e a Segunda (1939-1945) Guerras Mundiais e contribuiu de forma fundamental na reconstrução de edificações residenciais nos países destruídos pela guerra, principalmente na Alemanha, em função da rapidez e da redução de custos proporcionadas pela sua utilização. A partir de então, muitos estudos surgiram, aprofundando o assunto e mostrando os imensos benefícios que a Coordenação Modular trouxe para a racionalização e a industrialização na construção civil em um grande número de países, sendo amplamente difundida e, hoje se sabe, utilizada. O Brasil foi um dos pioneiros, em nível mundial, a aprovar uma norma de Coordenação Modular, a NB-25R, em 1950, tendo os anos 70 e início dos 80 tomados por seus conceitos e estudos a respeito. Apesar disso, poucos objetivos foram alcançados mesmo com toda a promoção para a racionalização da construção. As atuais preocupações com as questões ambientais, de produtividade e de redução de custos no setor são aliados para uma retomada dos estudos de Coordenação Modular, que se mostra como um fator fundamental para que se traga à construção civil os benefícios que a industrialização trouxe a outros setores industriais. Foi realizado um levantamento histórico, em que são abordadas as questões relativas ao uso do módulo na arquitetura e sua evolução até a Coordenação Modular, os princípios e conceitos mais importantes de sua teoria e as ações realizadas em favor de sua implantação no Brasil As últimas ações identificadas foram as normas publicadas em 1982, pouco antes do fechamento do Banco Nacional da Habitação, até então o principal incentivador da Coordenação Modular. Em seguida a esse hiato de duas décadas em que ficou praticamente esquecida, estudou-se a situação atual da indústria da construção civil sob alguns aspectos e partiu-se em busca do que pode ser feito para a implementação da Coordenação Modular no país. Chegou-se à conclusão de que, apesar dos entraves existentes, o Programa Brasileiro de Produtividade e Qualidade no Habitat (PBQP-H) mostra-se como um instrumento propício para essa implementação, pois, além de contar com o suporte estatal, tem influência sobre todos os intervenientes da cadeia produtiva.
Resumo:
Sistemas convencionais de coleta e tratamento de esgotos domiciliares apresentam níveis de eficiência técnica e econômica nem sempre compatíveis com a realidade de alguns assentamentos humanos. A observação da história e da atualidade dos sistemas de tratamento e disposição dos esgotos, mostra uma permanente deficiência do tratamento dos resíduos líquidos. O estudo do uso da água e do ciclo hidrológico, ressalta a importância de que a intervenção humana neste ciclo se dê de forma sustentável. Um sistema que trate as águas servidas no local, e permita o aproveitamento dos poluentes destas águas na forma de insumos para a produção vegetal, devolvendo-as, purificadas para o ciclo hidrológico, pela evapotranspiração e infiltração no solo, certamente é mais sustentável que a maioria das soluções hoje adotadas. Neste trabalho, a partir de uma revisão bibliográfica sobre alternativas tecnológicas, é apresentado um estudo comparativo de diferentes sistemas de coleta e tratamento de esgotos tendo como variáveis de análise os custos de construção, operação e manutenção, a área necessária para a implantação do sistema, os volumes dos lodos e dos gases produzidos, e a qualidade do efluente do tratamento. O tratamento, em separado, das águas residuárias residenciais, apoia-se em vários estudos realizados nos últimos anos, em especial da microbiologia dos esgotos. Destacam-se os que apontam a eficiência do tratamento diretamente relacionada à concentração dos esgotos e justificam a separação das águas negras (descargas hídricas dos vasos sanitários), das cinzas (demais águas servidas) Os estudos para o tratamento das águas cinzas, especificamente, onde se demonstra que estas últimas não têm os elevados índices de poluição das águas negras, permitem tratamentos mais simplificados e econômicos. Estes fundamentos estão aplicados em um sistema modular com separação das águas (SMSA), proposto neste trabalho, um sistema de construção simples, que utiliza materiais comuns, que requer pouca manutenção e não necessita de energia externa para o seu funcionamento. Este sistema proporciona um tratamento final seguro, pela disposição dos efluentes previamente tratados, no leito de evapotranspiração e infiltração que, bem operado, pode oferecer um tratamento a nível terciário. Palavras-chave: saneamento; tratamentos
Resumo:
A Internet tem expandido a área de atuação das empresas aproximando mercados, empresas, pessoas e gerando mudanças significativas no paradigma das relações de trabalho. Juntamente, a chamada “revolução da informação” e a expansão da competitividade entre as empresas no mercado global ocasionaram um movimento de reformulação nas próprias estruturas administrativas das organizações de forma que a informação e o conhecimento passaram a ser vistos como recursos organizacionais tão importantes quanto a mão-de-obra ou a matéria-prima. Estas mudanças revolucionaram os mais diversos processos organizacionais, sobretudo aqueles relacionados com a gestão do conhecimento e da informação. Neste contexto, a problemática do gerenciamento de informação pode ser identificada como desafio crucial, o qual tem sido abordado tanto no cenário acadêmico quanto no cenário empresarial. Assim, o desenvolvimento de meios e métodos para operacionalização do gerenciamento de conteúdos é tema desta dissertação, que objetiva, através da aplicação da metodologia de pesquisa-ação, apresentar a descrição funcional um sistema modular para gerenciamento de conteúdo em ambiente web. Também são discutidos aspectos relacionados com a aplicação prática do sistema em diferentes websites, e realizada uma avaliação onde se constatou que os gestores estão satisfeitos, não apresentando dificuldade de uso, e ainda obtiveram resultados positivos com o uso da ferramenta.
Resumo:
The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.
Resumo:
Este estudo apresenta uma proposta para a padronização das dimensões de unidades de alvenaria estrutural no Brasil. Para isso, primeiramente são discutidos os benefícios da aplicação da teoria da coordenação modular na alvenaria estrutural, através da relação da coordenação modular com a arquitetura e da síntese dos seus princípios fundamentais. Tendo sempre o foco na padronização do componente modular e no seu uso em projetos coordenados modularmente. Em seguida, é apresentada a situação da alvenaria estrutural no Brasil e na Alemanha, observando principalmente o uso da coordenação modular, as características das unidades, do projeto e da execução nesse processo construtivo. Destacamse os problemas enfrentados no Brasil, onde adaptações do projeto arquitetônico de edifícios em concreto armado para projetos em alvenaria estrutural aumentam os custos e problemas no processo construtivo. A principal razão para isto é que as unidades de alvenaria não são coordenadas modularmente e necessitam rigorosa padronização. Assim, finalmente, a partir dos aspectos condicionantes para as dimensões das unidades de alvenaria estrutural é possível alcançar o objetivo central deste trabalho que é a sugestão à indústria brasileira de uma série de medidas preferidas para a padronização das dimensões de unidades de alvenaria estrutural no Brasil, apresentando os possíveis arranjos de paredes e elaborando um projeto piloto coordenado modularmente, sem que haja a restrição da liberdade criativa dos arquitetos.
Resumo:
Uma parte importante da química de orgametálicos atual centra-se no estudo de compostos heterobimetálicos com o propósito de avaliar de que modo as possíveis interações entre os metais podem alterar a reatividade dos centros metálicos presentes na molécula. Os ligantes ferrocenilas tem sido bastante utilizados para obter-se compostos desta natureza. Dentro desta classe de ligantes destaca-se o 1,1'-bis(difenilfosfina)ferroceno(dppf). Muitos trabalhos surgiram na literatura nos últimos dez anos descrevendo a síntese, caracterização estrutural, no estado sólido ou em solução, de novos complexos metálicos derivados deste metaloligante, bem como o estudo de suas propriedades catalíticas. O objetivo deste trabalho foi sintetizar novos compostos derivados do 1,1'-bis(difenilfosfina) ferroceno (dppf) e estudá-los no estado sólido ou em solução. Desta forma, foram pela primeira vez sintetizados os compostos dppfFe(NO)2(1), [dppfCo(NO)2][SBf6](2) e dppfNicod(3) e [dppfNi(MeCN)4]2 (4) os quais foram caracterizados por espectroscopia na região do infravermelho, ressonância magnética nuclear de ¹H e ³¹P{¹H}, análise elementar de C,H e N, condutividade molar no caso do composto catiônico(2) e difração de Raios-X de monocristal, no caso do composto(1). A espectroscopia Mössbauer de 57Fe constitui-se uma técnica adequada para a análise deste metaligante, que contém um átomo de Fe na sua molécula, pois pode fornecer informações estruturais e evidenciar eventuais efeitos interativos que ocorram entre os centros metálicos quando o ligante encontra-se complexado a outros metais. Foram, então, estudados por espectroscopia Mössbauer, à baixa temperatura, os compostos (1),(2),(3),(4) e dppfFe(CO)3 (5) e os resultados obtidos comparados com os apresentados na literatura para compostos análogos contendo o ligante dppf. Os complexos derivados do dppf exibem um processo de oxidação centrado no ferroceno além dos processos de oxiredução presentes nos outros centros metálicos da molécula. O estudo das alterações que podem ocorrer neste processo devido à presença de um segundo metal de transição ou dos ligantes é importante pois pode fornecer informações sobre como modular o potencial redox centrado no ligante ferrocenila, permitindo assim um controle de sua reatividade. Sendo assim, neste trabalho foi realizado um estudo eletroquímico, por voltametria cíclica, dos compostos (1),(2) e (5). Compostos de Ni(0) ou Ni(II) são conhecidos catalisadores em reações de oligomerização e polimerização de olefinas e dienos. Compostos ferrodinitrosilas e cobaltodinitrosilas, na presença de redutores, apresentam alta seletividade em reações de ciclomerização de dienos. Nestes sistemas catalíticos a atividade e seletividade doscompostos está intimamente relacionada com a natureza dos ligantes unidos ao metal de transição do percussor catalítico. Devido às características dos compostos sintetizados e estudados neste trabalho, decidiu-se verificar a possível influência do ligante ddpf, na atividade e seletividade das reações com dienos, escolhendo-se o butadieno como substrato modelo. Estudou-se, então, a atividade catalítica dos compostos (1),(2),(3),(4),(5) e dppfNiCl2 (6) frente ao butadieno, na ausência e presença do cocatalisador, AlEt2Cl.
Resumo:
A amígdala medial (AMe) é um núcleo superficial do complexo amigdalói-de, ocupando seu aspecto rostromedial. A AMe modula uma série de comportamen-tos, além de modular a memória e o aprendizado associado a estímulos olfativos e visuais. Em ratos, é uma estrutura sexualmente dimórfica e está dividida em quatro subnúcleos: ântero-dorsal (AMeAD), ântero-ventral (AMeAV), póstero-dorsal (AMePD) e póstero-ventral (AMePV). A AMe apresenta células com características morfológicas variadas e receptores para hormônios gonadais amplamente e heterogeneamente distribuídos entre todos os seus subnúcleos. O presente trabalho teve como obje-tivos caracterizar a morfologia dos neurônios dos subnúcleos AMeAD, AMeAV, AMePD e AMePV de ratas na fase de diestro e verificar a densidade de espinhos dendríticos de neurônios dos subnúcleos AMeAD, AMePD e AMePV de ratas nas fa-ses de diestro, pró-estro, estro e metaestro. Para tal, foram utilizadas ratas Wistar (N=24) que, após a identificação da fase do ciclo estral, foram anestesiadas e per-fundidas, tiveram seus encéfalos retirados e seccionados (cortes coronais de espes-sura de 100 e 200 µm), submetidos à técnica de Golgi. A seguir, os neurônios foram selecionados e desenhados com auxílio de câmara clara acoplada a um fotomicroscópio. Na avaliação da morfologia dos neurônios, observou-se que eles são do tipo multipolar, células estreladas e bitufted, sendo encontrados em todos os subnúcleos da AMe de ratas na fase de diestro além de células com corpos celulares arredondados, fusiformes, piriformes, ovais e com características piramidais. Para a quanti-ficação da densidade de espinhos dendríticos, foram desenhados os primeiros 40 µm de 8 ramos dendríticos de 6 fêmeas por fase do ciclo estral e por subregião da AMe. Os resultados da contagem dos espinhos dendríticos foram submetidos a ANOVA de uma via e ao teste de Newman-Keuls. Verificou-se que, em diestro, a densidade de espinhos nas regiões AMeAD, AMePD e AMePV, foi maior quando comparada às demais fases do ciclo estral. Além disso, em diestro, a AMePD apresentou a maior densidade quando comparada com as regiões AMeAD e AMePV. O estudo mostrou que os neurônios da AMe de ratas estudadas na fase de diestro apresentaram morfologia variada e a densidade de espinhos dendríticos va-riou na AMeAD, AMePD e AMePV durante o ciclo estral de ratas, especialmente na AMePD. Os resultados obtidos sugerem a plasticidade induzida por esteróides se-xuais na morfologia e na fisiologia da AMe de ratas.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
A poluição do meio ambiente por metais pesados apresenta um problema grave devido a sua alta toxicidade e a capacidade de bioacumulação. Tendo em vista o vasto uso do sulfato de cobre em algumas indústrias e nas lavouras do Rio Grande do Sul, e a importância de se avaliar possíveis danos causados nos seres vivos, o objetivo deste trabalho foi determinar o potencial tóxico do sulfato de cobre em Planária e verificar a utilidade deste organismo para biomonitoramento ambiental. O sulfato de cobre induziu dano dose-dependente no DNA após exposição aguda e crônica, sendo que o efeito observado é a primeira evidência da genotoxicidade do cobre detectada com o Teste Cometa. A interferência dos íons de cobre com o processo de reparo do dano no DNA induzido pelo MMS sugere que o cobre poderia modular os efeitos genotóxicos associados com a exposição às misturas complexas no meio ambiente. Monitoramento da cinética do reparo no DNA em planárias mostrou reparo mais lento in vivo em comparação aos dados obtidos em cultura de células, acentuando a importância dos testes in vivo na avaliação do risco associado com a exposição adversa. O conteúdo da proteína hsp60 em planária Dugesia schubarti não foi alterado em resultado da exposição ao cobre, mostrando que não é um parâmetro adequado para avaliação da contaminação química. Animais não tratados apresentaram quantidades detectáveis de proteína hsp60, revelando um alto nível basal de expressão desta proteína que poderia mascarar possível indução em resultado da exposição química. Contudo, indução da hsp60 foi observada após choque térmico. A atividade da catalase em planária foi significativamente induzida após exposição às baixas concentrações de sulfato de cobre, mostrando-se um indicador sensível para exposição aguda ao cobre e sugerindo possível uso deste ensaio em estudos com outros agentes oxidantes. A atividade relativamente alta da catalase, detectada nas planárias não tratadas, provavelmente está relacionada com o alto nível de oxigênio dissolvido no seu habitat. A exposição das planárias ao mutagênico conhecido MMS, in vivo, induziu quebras no DNA, de maneira dose-dependente, em concentrações similares com as da referência em células de mamíferos, comprovando a sensibilidade do sistema utilizado. A planária se mostrou também um organismo bastante apropriado para a detecção de danos no DNA utilizando-se o Teste Cometa, sugerindo que poderia ser útil para o monitoromento de efeitos genotóxicos induzidos por agentes químicos no ambiente aquático. Os resultados apresentados neste estudo revelam o potencial tóxico e genotóxico do sulfato de cobre em planárias e também sugerem que este organismo-teste pode ser considerado um sistema valioso para avaliação da contaminação química em estudos ambientais.
Resumo:
Em vista da maior complexidade da programação paralela e distribuída em relação à programação de ambientes centralizados, novas ferramentas vêm sendo construídas com o objetivo de auxiliar o programador desses ambientes a desempenhar sua tarefa de formas mais eficazes e produtivas. Uma das ferramentas que há algum tempo tem sido usada na programação centralizada e aos poucos está sendo empregada também na programação concorrente é a programação visual. A programação visual se vale da presença de elementos visuais na especificação dos programas como peças chaves do processo de desenvolvimento de software. No caso específico da programação concorrente, a programação visual é especialmente útil pela capacidade que os gráficos têm de representar de forma mais adequada estruturas bidimensionais. Um programa concorrente, por relacionar no espaço diversos elementos com seus próprios fluxos de execução, faz surgir duas dimensões de análise que são mais difíceis de serem observadas através de programas textuais. Atualmente existem ferramentas de programação visual paralela e distribuída, mas a ênfase é dada na programação paralela, sem muita atenção a aplicações de sistemas abertos ou cliente-servidor. Além disso, tais ferramentas sofrem da falta de apoio à engenharia do software. Considerando essas deficiências, este trabalho apresenta uma ferramenta de programação visual para o desenvolvimento de aplicações compostas por objetos distribuídos que ofereça também a possibilidade de aplicar os principais conceitos da engenharia de software, como reutilização e orientação a objeto. Nesta ferramenta, o programador especifica de maneira visual a estrutura do seu programa, insere o código textual para a lógica da aplicação e o ambiente se encarrega do tratamento da distribuição e da comunicação de mais baixo nível. A aplicação é representada como um grafo dirigido, onde os nodos representam os objetos distribuídos e os arcos indicam os relacionamentos existentes entre esses objetos. A especificação dos programas é modular, baseando-se na reunião de componentes reutilizáveis, o que torna o sistema altamente configurável e extensível. Tanto a implementação da ferramenta quanto o código das aplicações geradas usam a linguagem de programação Java. A linguagem de programação visual projetada não especifica detalhes a respeito de como irá funcionar a comunicação e distribuição dos objetos. Portanto, foram implementados componentes para comunicação e outros recursos de programação distribuída, como locks e dados globais para serem usados nas aplicações. Para validar os principais objetivos da ferramenta, foram implementados alguns exemplos de aplicações distribuídas, como um pequeno sistema de bate-papo.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
A linguagem de programação Java vem sendo uma das escolhidas para a implementação de aplicações compostas por objetos distribuídos. Estas aplicações caracterizam-se por possuir comportamento complexo e, portanto, são mais difíceis de depurar e refinar para obter melhores desempenhos. Considerando a necessidade do desenvolvimento de uma ferramenta de monitoração para o modelo de objetos distribuídos, que colete informações mais detalhadas sobre a execução da aplicação, é apresentado neste trabalho um ambiente de monitoração de aplicações distribuídas escritas em Java, o DOMonitor. Um dos objetivos do DOMonitor é obter o comportamento que a aplicação apresenta durante a execução, possibilitando a detecção de comportamentos equivocados e seu respectivo refinamento. O DOMonitor é voltado para aplicações compostas por objetos distribuídos e caracteriza-se por identificar principalmente: (i) o comportamento dinâmico das threads; (ii) a utilização dos métodos de sincronização; e (iii) a comunicação entre os entes distribuídos da aplicação. O DOMonitor está fundamentado em quatro premissas: (i) ser transparente para o usuário, não exigindo anotações no código fonte; (ii) apresentar uma organização modular, e por isto ser flexível e expansível; (iii) ser portável, não exigindo nenhuma alteração na Maquina Virtual Java; e (iv) operar de forma a garantir a ordem dos eventos previstos pelo programa. Os dados produzidos pelo DOMonitor podem ser utilizados com diversas finalidades tais como visualização da execução, escalonamento e como suporte à execução de aplicações móveis. Para comprovar esta versatilidade, foi proposta a integração do sistema a dois outros projetos, o Pajé e o ISAM. O projeto ISAM utilizará os dados monitorados para tomadas de decisão durante o curso da execução e o projeto Pajé permite a visualização gráfica das características dinâmicas de uma aplicação Java.
Resumo:
A presente dissertação trata da fatoração de polinômios em duas variáveis sobre um corpo F. Mais precisamente, o trabalho traça o desenvolvimento histórico de uma estratégia modular que levou à resolução desse problema em tempo polinomial e culmina com a apresentação de um algoritmo publicado por S. Gao no ano de 2003, que determina simultaneamente as fatorações racional e absoluta de um dado polinômio. A nossa contribuição consiste na extensão desse algoritmo a casos que não satisfazem as condições prescritas pelo autor.
Resumo:
The rapid growth of urban areas has a significant impact on traffic and transportation systems. New management policies and planning strategies are clearly necessary to cope with the more than ever limited capacity of existing road networks. The concept of Intelligent Transportation System (ITS) arises in this scenario; rather than attempting to increase road capacity by means of physical modifications to the infrastructure, the premise of ITS relies on the use of advanced communication and computer technologies to handle today’s traffic and transportation facilities. Influencing users’ behaviour patterns is a challenge that has stimulated much research in the ITS field, where human factors start gaining great importance to modelling, simulating, and assessing such an innovative approach. This work is aimed at using Multi-agent Systems (MAS) to represent the traffic and transportation systems in the light of the new performance measures brought about by ITS technologies. Agent features have good potentialities to represent those components of a system that are geographically and functionally distributed, such as most components in traffic and transportation. A BDI (beliefs, desires, and intentions) architecture is presented as an alternative to traditional models used to represent the driver behaviour within microscopic simulation allowing for an explicit representation of users’ mental states. Basic concepts of ITS and MAS are presented, as well as some application examples related to the subject. This has motivated the extension of an existing microscopic simulation framework to incorporate MAS features to enhance the representation of drivers. This way demand is generated from a population of agents as the result of their decisions on route and departure time, on a daily basis. The extended simulation model that now supports the interaction of BDI driver agents was effectively implemented, and different experiments were performed to test this approach in commuter scenarios. MAS provides a process-driven approach that fosters the easy construction of modular, robust, and scalable models, characteristics that lack in former result-driven approaches. Its abstraction premises allow for a closer association between the model and its practical implementation. Uncertainty and variability are addressed in a straightforward manner, as an easier representation of humanlike behaviours within the driver structure is provided by cognitive architectures, such as the BDI approach used in this work. This way MAS extends microscopic simulation of traffic to better address the complexity inherent in ITS technologies.