80 resultados para Levedos - Aplicações industriais
Resumo:
Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.
Resumo:
A economia do Rio Grande do Sul, o estado mais meridional do Brasil, enfrenta o problema da concentração econômica e industrial em suas três principais regiões: Metropolitano-Delta do Jacuí, Vale do Rio dos Sinos e Serra. Essa situação possui raízes históricas e vem desafiando os governos em seus esforços, baseados, principalmente, em incentivos financeiros, para promover o crescimento econômico e o desenvolvimento em outras regiões do Estado do Rio Grande do Sul, mediante investimentos industriais privados. O objetivo deste estudo é analisar a concentração regional da economia do Rio Grande do Sul, estabelecendo um cenário teórico e histórico a fim de proceder a uma avaliação dos impactos e efeitos sobre esta situação resultante da operação de um programa público de incentivos financeiros, que visa promover investimentos industriais privados na economia estadual, o Fundopem. A abordagem histórica do problema mostra que os primórdios da formação econômica do Rio Grande do Sul e seu desenvolvimento durante os séculos XIX e XX contribuíram para criar uma economia regionalmente desequilibrada. Por sua vez, a abordagem teórica, baseada na Economia Regional e, mais especialmente, na Teoria do Desenvolvimento Regional, contribui para a compreensão do papel atribuído ao estado, bem como das características gerais de suas macropolíticas, voltadas para melhorar a convergência econômica e social na desequilibrada distribuição de emprego e renda entre as regiões do Rio Grande do Sul Por fim, a análise e a avaliação ex-ante de projetos e ex-post de investimentos industriais incentivados pelo Fundopem como um programa público para a promoção do desenvolvimento regional trazem a este estudo uma visão quantitativa sobre os seus resultados macro e mesoeconômicos sobre o desenvolvimento do Rio Grande do Sul. A conclusão final do estudo mostra que, ao contrário de promover a desconcentração industrial, os projetos apoiados pelo Fundopem, no período 1989/98, tomaram a direção de reforço da concentração industrial existente nas três principais regiões do Rio Grande do Sul, enquanto que a distribuição regional da indústria e da economia estadual, no mesmo período, experimentou um processo de desconcentração, que ocorreu apesar do Fundopem.
Resumo:
Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.
Resumo:
Este estudo visa analisar a relação entre a produtividade e as condições de trabalho de funcionários em uma área de Processamento de Vegetais de uma Indústria de Refeições Coletivas. O trabalho foi desenvolvido em forma de estudo de caso, e a metodologia utilizada, neste estudo, caracterizou-se como uma pesquisa descritiva, cujos sujeitos da pesquisa foram funcionários da área específica. Para tanto, os instrumentos utilizados para uma avaliação integrada da área da ergonomia, produtividade e layaul, foram: relatórios gerados pelo Departamento Pessoal da empresa; observação direta e utilização de filmagens e fotografias das atividades realizadas; entrevistas, elaboração da matriz produto x processo e de fluxos de processos constando tomadas de tempo e distância e, por fim, análise dos dados e recomendações. Fizeram parte deste estudo 29 funcionários, com a faixa etária variando entre 19 e 49 anos. Constatou-se que o trabalho exige esforço físico, movimentos repetitivos por longos períodos, carregamento e levantamento de peso, postura em pé e deslocamentos durante a realização das atividades. Algumas tarefas foram classificadas como penosas, segundo a percepção dos próprios funcionários, fato que pode estar relacionado com o significativo número de atestados e afastamentos. Observou-se também que ocorrem cruzamentos entre as tarefas, assim como a formação de gargalos, conseqüentemente ocasionando problemas de fluxo. As recomendações envolvem questões pertinentes às condições organizacionais, visando um funcionamento mais satisfatório, através de rearranjos dos postos de trabalho e redução do fluxo. Estas recomendações possibilitariam uma melhor organização nos postos de trabalho, um maior controle de produção, através da separação segundo as características dos processos e, possivelmente na qualidade das condições de execução das tarefas.
Resumo:
Este trabalho apresenta um conjunto de técnicas para a modelagem paramétrica e geração de malhas de superfícies para uso em sistemas de análise e simulações numéricas pelo Método dos Elementos Finitos. Foram desenvolvidos algoritmos para a geração paramétrica de superfícies, para a determinação das curvas de interseções entre superfícies e para a geração de malhas em superfícies curvas e recortadas. Foram implementas linhas e curvas paramétricas básicas, a partir das quais são geradas superfícies paramétricas de vários tipos que proporcionam uma grande flexibilidade de modelamento geométrico. Curvas e superfícies são geradas e manipuladas de forma interativa. São apresentadas técnicas que simplificam a implementação de linhas e superfícies paramétricas. Foi desenvolvido um algoritmo para determinar as curvas de interseção entre superfícies paramétricas, que são utilizadas como linhas de recorte (trimming lines) para obter geometrias complexas e compostas de várias superfícies. O algoritmo desenvolvido emprega técnicas de subdivisão adaptativa, por quadtrees, em função da curvatura local das superfícies. Primeiramente, obtém-se uma aproximação das curvas de interseção no espaço 3D, através da aproximação por triângulos. Os resultados iniciais são refinados e projetados sobre as duas superfícies envolvidas com algoritmos que permitem obter grande precisão. As curvas de interseção finais são mapeadas nos espaços paramétricos das duas superfícies, porém com uma parametrização única, o que facilita a junção com superfícies adjacentes Um algoritmo de geração de malha foi desenvolvido para gerar malhas triangulares de qualidade sobre as superfícies curvas e recortadas. O algoritmo utiliza um processo de subdivisão adaptativa por quadtrees, similar ao utilizado no algoritmo de interseção, para definir tamanhos de elementos em função da curvatura local. Em seguida, aplica-se um algoritmo tipo advancing front para gerar a malha sobre a superfície. Os algoritmos foram implementados e testados em um ambiente gráfico interativo especialmente desenvolvido para este trabalho. São apresentados vários exemplos que comprovam a eficiência das técnicas e algoritmos propostos, incluindo exemplos de matrizes de conformação mecânica para uso com código de análise METAFOR, análise de sensibilidade para otimização de pré-formas e de modelagem de superfícies compostas recortadas com geração de malhas de qualidade, para uso em análise por Elementos Finitos ou como contorno para geração de elementos tridimensionais.
Resumo:
Este trabalho avalia o efeito da adição de diferentes resíduos, todos de baixa granulometria e gerados não muito distantes de empresas fabricantes de produtos de cerâmica vermelha, quando incorporados a argilas para processamento cerâmico tradicional. Foram utilizadas argilas da região de Sangão e Forquilhinha (Santa Catarina), bem como os seguintes resíduos: resíduo siderúrgico da produção de aço em forno elétrico (pó de aciaria), resíduo de atomizador de uma indústria de revestimentos cerâmicos e resíduo do polimento de grês porcelanato. Após a caracterização das matérias-primas, foram formuladas massas cerâmicas na relação argila/resíduo de 5:1 para cada resíduo. E, como padrão de comparação, utilizou-se a formulação apenas com argilas. As massas cerâmicas foram conformadas por prensagem e submetidas à queima em forno elétrico tipo mufla nas seguintes temperaturas 800, 900, 950, 1000 e 1100oC. Os corpos cerâmicos assim obtidos foram caracterizados segundo suas propriedades físicas (retração linear e absorção de água – curva de gresificação) e mecânicas (resistência mecânica à flexão a quatro pontos). Além disso, os corpos cerâmicos fabricados, utilizando pó de aciaria (resíduo perigoso segundo a ABNT), foram avaliados segundo as normas NBR 10005 e NBR 10006, quanto ao seu aspecto ambiental. Os resultados mostraram a viabilidade do uso destes resíduos na fabricação de produtos cerâmicos. As propriedades finais e a cor de queima (entre marrom claro e marrom escuro) variaram de acordo com a natureza do resíduo e temperatura de queima. A formulação testada com pó de atomizador de industria cerâmica apresentou em todas as temperaturas ensaiadas os maiores incrementos de resistência mecânica em relação às formulações testadas, sendo que à temperatura de 1100oC, a formulação com pó de aciaria apresentou desempenho similar, porém com menor absorção de água e maior retração linear. Nestas condições, os corpos cerâmicos com pó de aciaria mostraram-se inertes quanto ao aspecto ambiental de acordo com as normas Brasileiras.
Resumo:
Os controladores programáveis tornaram-se fator decisivo para o controle de processos em ambientes industriais. Permitir o gerenciamento desses, eleva-os ao mesmo grupo de outros equipamentos da rede. Gerenciar esses dispositivos e o processo controlado tende a facilitar a identificação de falhas, as intervenções no processo e demais vantagens trazidas por um bom esquema de gerência. Uma maneira de realizar esse gerenciamento é por meio de programas conhecidos como supervisórios. Além das aplicações de supervisão, uma nova classe de ferramentas, que também possibilita o gerenciamento tanto do controlador quanto do processo a esse submetido, vem sendo disponibilizada. A presença de protocolos de gerenciamento, tal qual o SNMP, já é uma realidade em alguns dos modelos de equipamentos oferecidos por vários fabricantes, promovendo uma integração com plataformas de gerência já existentes no mercado. A proposta deste trabalho inclui a elaboração de um modelo de gerenciamento usando XML, atualmente em ampla ascensão e aceitação. Está, também, previsto a construção de um protótipo capaz de realizar as funções de um agente. A criação de um modelo de gerenciamento baseado em tecnologias e especificações abertas, tais como XML e Web, possibilita desde a utilização de um navegador, até o desenvolvimento de novas ferramentas para a requisição/aquisição de dados em controladores.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
O presente trabalho expõe uma análise sobre duas arquiteturas disponíveis para o desenvolvimento de sistemas que utilizam a tecnologia de workflow. Estas arquiteturas são: a Arquitetura Baseada em Modelagem e Execução em um ùnico Ambiente e a Arquitetura Baseada em Modelagem e Execução e Ambientes Distintos. São expostas: características, vantagens e desvantagens destas arquiteturas. A Aquitetura Baseada em Modelagem e Expressões em Ambientes Distintos é analisada em seu principal ponto negativo: a falta de independência existente entre as apliciações e os processos modelados, bem como são discutidos os problemas que esta falta de independência gera no desenvolvimemto e manutenção das aplicações. Uma alternativa à dependência entre o motor de workflow (engine) e as aplicações é proposta para a Arquitetura Baseada na Modelagem e Execução em Ambientes Distintos. Esta proposta é baseada em um modelo que consiste de uma Camada Intermediária, armazenada em um banco de dados relacional, capaz de extender as funcionalidades do motor de workflow. Este banco de dados armazena toda a estrrutura dos processos modelados, sendo responsável pela função que atualmente é repassada às aplicações: o controle da lógica dos processos. Estes trabalho produziu de uma Camada Intermediária, dividida em Camada de Independência (suportando a independência) e Camada de Integrgação (responsável pela comunicação com o motor de workflow). O estudo apresentada as estruturas do banco de dados, as funções disponibilizadas pela API da Camada Intermediária e um pequeno protótipo para dedmonstrar a arquitetura proposta.
Resumo:
Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.
Resumo:
Este trabalho tem por objetivo estudar a regularidade de soluções de Equações Diferenciais Parciais Elípticas da forma Lu = f, para f 2 Lp(), onde p > 1. Para isto, usamos a Decomposição de Calderon-Zygmund e um resultado que é consequência deste, o Teorema da Interpolação de Marcinkiewicz. Além disso, usando quocientes-diferença provamos a regularidade das soluções para o caso p = 2 e L = ¡¢ de uma forma alternativa.
Resumo:
Neste trabalho, nós estudamos propriedades básicas de aplicações monótonas por partes, utilizando a Teoria Kneading na obtenção de uma condição suficiente para a existência de conjugção topológica entre uma certa classe de aplicações padrão.
Resumo:
Resumo não disponível.
Resumo:
A linguagem de programação Java vem sendo uma das escolhidas para a implementação de aplicações compostas por objetos distribuídos. Estas aplicações caracterizam-se por possuir comportamento complexo e, portanto, são mais difíceis de depurar e refinar para obter melhores desempenhos. Considerando a necessidade do desenvolvimento de uma ferramenta de monitoração para o modelo de objetos distribuídos, que colete informações mais detalhadas sobre a execução da aplicação, é apresentado neste trabalho um ambiente de monitoração de aplicações distribuídas escritas em Java, o DOMonitor. Um dos objetivos do DOMonitor é obter o comportamento que a aplicação apresenta durante a execução, possibilitando a detecção de comportamentos equivocados e seu respectivo refinamento. O DOMonitor é voltado para aplicações compostas por objetos distribuídos e caracteriza-se por identificar principalmente: (i) o comportamento dinâmico das threads; (ii) a utilização dos métodos de sincronização; e (iii) a comunicação entre os entes distribuídos da aplicação. O DOMonitor está fundamentado em quatro premissas: (i) ser transparente para o usuário, não exigindo anotações no código fonte; (ii) apresentar uma organização modular, e por isto ser flexível e expansível; (iii) ser portável, não exigindo nenhuma alteração na Maquina Virtual Java; e (iv) operar de forma a garantir a ordem dos eventos previstos pelo programa. Os dados produzidos pelo DOMonitor podem ser utilizados com diversas finalidades tais como visualização da execução, escalonamento e como suporte à execução de aplicações móveis. Para comprovar esta versatilidade, foi proposta a integração do sistema a dois outros projetos, o Pajé e o ISAM. O projeto ISAM utilizará os dados monitorados para tomadas de decisão durante o curso da execução e o projeto Pajé permite a visualização gráfica das características dinâmicas de uma aplicação Java.
Resumo:
Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.