953 resultados para Programação concorrente


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um programa que tem por finalidade automatizar os procedimentos de verificação do estado limite de serviço de abertura das fissuras em seções retangulares e T de concreto armado, submetidas à flexão simples, conforme as recomendações da norma NBR 6118/2003 – Projeto de Estruturas de Concreto. O programa foi implementado na linguagem de programação Microsoft Visual Basic, aproveitando os recursos fornecidos por esta linguagem, que propiciam o desenvolvimento de uma entrada de dados amigável, típica do ambiente Windows. A fissuração, em elementos de concreto armado, ocorre quando as tensões de tração no concreto excedem a sua capacidade resistente. Nos elementos fissurados, as aberturas das fissuras devem ser controladas. Segundo as recomendações da norma, o valor característico da abertura das fissuras não deve ultrapassar determinados valores admissíveis. No procedimento implementado, são determinadas as aberturas das fissuras considerando-se o conjunto de barras da armadura tracionada e a camada mais tracionada da armadura, com o propósito de estabelecer a situação mais desfavorável. O programa tem também a pretensão de auxiliar estudantes de engenharia na compreensão do fenômeno da fissuração, fornecendo valores de elementos que caracterizam o funcionamento da peça fletida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo é uma coorte não concorrente em 63 pacientes (66 quadris) submetidos à revisão de artroplastia total de quadril (RATQ), com enxerto ósseo liofilizado moído e impactado. Foi realizado no Serviço de Ortopedia e Traumatologia do Hospital de Clínicas de Porto Alegre (HCPA), no período de maio de 1997 a setembro de 2003. O objetivo do estudo foi comparar clínica, radiográfica e cintilograficamente a capacidade de osteointegração dos enxertos ósseos liofilizados humano e bovino impactados em RATQs cimentadas e não-cimentadas. Os pacientes foram divididos em dois grupos: o Grupo 1 (n=35) foi composto pelos que receberam enxerto ósseo liofilizado de origem humana e o Grupo 2 (n=31) por aqueles que receberam enxerto de origem bovina. O tempo médio de seguimento foi de 33 meses. Os enxertos ósseos purificados e liofilizados foram produzidos pelo Banco de Tecidos do HCPA. A análise clínica baseou-se no escore de Merle, d’Aubigné e Postel; a radiográfica, nos critérios de radioluscência, densidade, formação de trabeculado ósseo, migração dos componentes e floculação, formulando-se um escore radiográfico de osteointegração (EROI). Foram escolhidos, aleatoriamente, como forma complementar de análise por imagem, 35 (53%) pacientes assintomáticos para realizarem cintilografia óssea com Tecnécio, sendo 17 (48,5%) do Grupo 1 e 18 (51,5%) do Grupo 2. Não foram encontradas diferenças clínicas, radiográficas ou cintilográficas relevantes entre os grupos, obtendo-se em torno de 85% de integração do enxerto, tanto no componente acetabular quanto femoral. Estes resultados são comparáveis aos relatados na literatura com o uso de enxerto alogênico congelado e confirmam a adequacidade do uso de enxertos liofilizados de origem bovina e humana em RATQ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem por objetivo estudar como o rádio foi usado, entre 1930 e 1945, pelo governo Vargas e o diálogo entre o poder e seus profissionais. Nesta fase, o meio radiofônico foi regulamentado e recebeu incentivos do poder público para seu desenvolvimento técnico, comercial e profissional. Este trabalho busca entender como a programação era desenvolvida pelos radialistas e se estes sofriam interferência governamental. A pesquisa procura ainda verificar de que maneira seus profissionais interagiam como movimentos sociais e políticos ocorridos no período e como esses fatos foram tratados por este veículo. O estudo foi fundamentado em pesquisa bibliográfica (livros, revistas, jornais, sites e bancos de dados) e em entrevistas com profissionais que trabalharam em rádio no período citado. Conclui-se que a participação governamental se deu através da aquisição de emissoras e produção de programas estatais e o controle rigoroso das estações privadas através de sua máquina de propaganda e da censura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho analisa a Rádio Brisa localizada na favela da Rocinha. A Brisa é uma rádio comunitária que reproduz em sua programação, o cotidiano dos moradores. Ao longo da pesquisa, analisei símbolos, códigos, linguagens e como todas essas questões influenciam na comunicação da rádio através da criação e produção do programa Música e Cia que aborda temas ligados à educação, cultura e saúde. Além do trabalho básico - roteiro e produção, foi estudada a linguagem e as especificidades do próprio veículo, levando em consideração a representatividade da rádio nas relações que envolvem ouvintes e locutores. O resultado da pesquisa foi apresentado em um vídeo de 20 minutos que mostra o cotidiano da rádio através de depoimentos de ouvintes e moradores e demais pessoas envolvidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A regulação de consultas especializadas tem se mostrado como uma das áreas mais problemáticas do Sistema Único de Saúde (SUS) no Brasil. Cabe aos gestores de saúde nos municípios, estados, e governo federal, estabelecerem mecanismos de regulação coerentes com o volume de recursos disponíveis e com o contingente populacional a atender. Diversas centrais de regulação para atendimentos especializados foram implantadas nas secretarias municipais de saúde e sistemas de informação foram criados como ferramentas para apoio a estas centrais. Seu escopo tem sido progressivamente ampliado, de maneira a incluir uma visão crítica das necessidades da população em relação à capacidade de atendimento dos prestadores de serviço. No processo de regulação de consultas especializadas, duas questões têm-se destacado: (1) para um dado caso, quais pacientes têm maior prioridade de atendimento, e (2) quais prestadores de serviço podem resolver melhor o caso? Fundamentado nestas duas questões, e a partir da consideração dos requisitos legitimados na área da assistência à saúde, este trabalho propõe um sistema para apoio à decisão de agendamento de consultas especializadas para servir às centrais de regulação. O sistema proposto integra análise de decisão multi-critério e programação linear para o agendamento das consultas, onde a alocação dos pacientes é definida em função da relevância relativa de um conjunto de critérios relacionados à noção de efetividade da assistência médica especializada e da capacidade de atendimento das unidades de assistência credenciadas. Da integração destes modelos resulta uma representação que leva em conta simultaneamente os aspectos relacionados ao diagnóstico médico e suas conseqüências na vida do paciente, os aspectos relacionados às instalações e processos disponíveis nas unidades assistenciais credenciadas, e os aspectos relacionados à dificuldade de acesso do paciente a estas unidades. O uso do sistema permite que as informações pessoais e médicas do paciente, assim como as informações sobre as unidades assistenciais, sejam incorporadas em um modelo de programação linear de maneira a maximizar a efetividade do conjunto de solicitações para cada especialidade. Os modelos foram implementados em um sistema informatizado, e aplicados em uma parcela dos serviços da Secretaria Municipal de Saúde de Porto Alegre para as especialidades de cardiologia e cirurgia vascular. O sistema e os resultados obtidos foram validados por um grupo de peritos, que confirmou a viabilidade do uso deste modelo como uma ferramenta para a otimização da alocação de recursos no atendimento especializado pelo SUS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O traçado de obras com características lineares num espaço geográfico tem, em princípio, um número muito grande de soluções. A seleção de traçados mais convenientes é hoje abordada pela Pesquisa Operacional por meio da Programação Dinâmica tradicional e das técnicas para resolver o problema conhecido como leastcost- path, (caminho de mínimo custo). Por sua vez, o planejamento de espaços geográficos é feito com o auxílio de técnicas de SIG (sistemas de informação geográfica). O estudo algorítmico dos caminhos de mínimo custo não é novidade e até os programas comerciais para SIG mais utilizados têm incorporado comandos que, com certas limitações, resolvem esse problema. Mas, seja qual for a abordagem, sempre é preciso conhecer a priori a funçãoobjetivo (FO), e isto não é tarefa fácil, pois devem ser conjugados objetivos de satisfação de necessidades sociais, políticas, ambientais e econômicas, o que gera um verdadeiro problema de otimização multiobjetivo e multicritério. Este trabalho teve como foco principal elaborar um modelo de decisão para ajudar na formulação da FO, adotando o paradigma multiobjetivo/multicritério, explorando inclusive o relaxamento difuso de pareceres dos decisores. Foram utilizadas apenas ferramentas computacionais (software e hardware) simples, de ampla difusão entre os engenheiros e de baixo custo, como a planilha de cálculo Excel e o programa Idrisi 32, procurando explorar suas aptidões e limitações, sem recorrer à elaboração e/ou utilização de códigos computacionais próprios, sobre os quais muitas pessoas sentem receios até não serem testados suficientemente. Foi obtido um sistema de apoio à decisão eficaz e de fácil utilização e sua possibilidade de aplicação foi testada na definição do traçado ótimo de parte da defesa norte da cidade de Resistencia (Argentina).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os museus federais, de um modo geral, nas duas últimas décadas, têm apresentado resultados satisfatórios no desempenho de sua missão básica - preservação e difusão do acervo que detêm - sem, necessariamente, contar para isso com apoio e recursos governamentais expressivos. Ao contrário, integrantes de uma área de governo sabidamente desfavorecida de recursos orçamentários, bem como de interesse político, desprovida, ainda, de quadros altamente qualificados, desenvolveram soluções próprias e um estilo peculiar de gestão para lidar com essas dificuldades crônicas. Tais soluções gerenciais (Associações de Amigos, criatividade, abnegação, flexibilidade, intensa participação etc.), alinhadas com um modo orgânico de funcionamento e adequadas até então, acobertam, de uma maneira sutil e arriscada, um quase absoluto despreparo profissional para a implementação de sistemas de controle gerencial orientados para resultados - gestão estratégica, programação e orçamentação, controle de qualidade, capacitação técnica e gerencial, indicadores de resultados e avaliação de programas etc. A crescente concorrência de outros meios de entretenimento e lazer, o aperto no controle do déficit público e a conseqüente pressão no sentido da publicização dessas atividades (fortes candidatas a virarem organizações sociais), somados ao esperado crescimento da cobrança social pela accountabilíty de seus dirigentes formam um cenário nada promissor para essas instituições, até então, imunes aos escândalos ou, pelo menos, a uma avaliação menos favorável pela população e demais stakeholders. O julgamento ainda vigente em grande parte de sua elite técnica de que não existe inteligência no mundo da administração, um mal necessário e de convívio difícil com as artes, reforça o belo desafio a ser enfrentado nos próximos anos pelos dirigentes dessas instituições.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de informação incorporam processos de negócios particulares de cada organização. A medida em que se observa uma crescente pressão de mercado para que empresas troquem informações de forma automatizada e segura para obtenção de melhores resultados, faz-se necessário repensar a forma como são concebidos os sistemas de informação, desde a modelagem da empresa propriamente dita até a modelagem dos processos de negócio e sua interação com os demais colaboradores. Modelar os processos de negócio de uma empresa em um contexto global significa não apenas estabelecer regras de comportamento, mas também expressar a forma como os processos poderão ser acionados e interagir com sistemas de informação diferentes. Existem várias tecnologias empregadas para a integração de sistemas de informação. Entre tantas tecnologias, uma delas vêm recebendo especial atenção: a tecnologia Web services. A suposta interoperabilidade dos Web services permite a comunicação de aplicações desenvolvidas em diferentes plataformas de hardware e diferentes linguagens de programação através da Internet ou de uma rede local. No entanto, algumas particularidades devem ser observadas para que a implementação de Web services seja eficiente. Disponibilizar processos de negócio de uma empresa através da Internet pode ser uma ótima opção para o incremento de suas atividades, mas requer cuidados especiais. Este trabalho apresenta uma revisão bibliográfica sobre a modelagem de empresas, modelagem de processos de negócio e a integração de sistemas de informação através do uso de Web services. Através de um estudo de caso, são apresentados os principais conceitos e as etapas necessárias para a implementação de Web services em um sistema Web. Como contribuição deste trabalho, é proposta uma alternativa de modelagem de sistemas que permite um melhor controle sobre o tratamento de exceções em Web services. O trabalho desenvolvido compreendeu a especificação, desenvolvimento e aplicação de um ambiente para suportar esta classe de aplicação. No texto é descrito o funcionamento da biblioteca NuSOAP, apresentando o código-fonte completo da aplicação desenvolvida, acessando Web services através de chamadas em alto nível (WSDL). Com o presente trabalho, tem-se uma proposta, já avaliada e validada, para funcionar como referencial conceitual e prático para o desenvolvimento de aplicações usando a tecnologia de Web services.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A linguagem de programação Java vem sendo uma das escolhidas para a implementação de aplicações compostas por objetos distribuídos. Estas aplicações caracterizam-se por possuir comportamento complexo e, portanto, são mais difíceis de depurar e refinar para obter melhores desempenhos. Considerando a necessidade do desenvolvimento de uma ferramenta de monitoração para o modelo de objetos distribuídos, que colete informações mais detalhadas sobre a execução da aplicação, é apresentado neste trabalho um ambiente de monitoração de aplicações distribuídas escritas em Java, o DOMonitor. Um dos objetivos do DOMonitor é obter o comportamento que a aplicação apresenta durante a execução, possibilitando a detecção de comportamentos equivocados e seu respectivo refinamento. O DOMonitor é voltado para aplicações compostas por objetos distribuídos e caracteriza-se por identificar principalmente: (i) o comportamento dinâmico das threads; (ii) a utilização dos métodos de sincronização; e (iii) a comunicação entre os entes distribuídos da aplicação. O DOMonitor está fundamentado em quatro premissas: (i) ser transparente para o usuário, não exigindo anotações no código fonte; (ii) apresentar uma organização modular, e por isto ser flexível e expansível; (iii) ser portável, não exigindo nenhuma alteração na Maquina Virtual Java; e (iv) operar de forma a garantir a ordem dos eventos previstos pelo programa. Os dados produzidos pelo DOMonitor podem ser utilizados com diversas finalidades tais como visualização da execução, escalonamento e como suporte à execução de aplicações móveis. Para comprovar esta versatilidade, foi proposta a integração do sistema a dois outros projetos, o Pajé e o ISAM. O projeto ISAM utilizará os dados monitorados para tomadas de decisão durante o curso da execução e o projeto Pajé permite a visualização gráfica das características dinâmicas de uma aplicação Java.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Programas de Fundos Competitivos para financiamento da pesquisa agrícola há muito estão sendo implementados nos países desenvolvidos. Entretanto, somente a partir da década de 1990 a adoção desse mecanismo se intensificou nos países em desenvolvimento, especialmente na América Latina. Isso ocorreu em razão da redução dos recursos do governo federal para a pesquisa agrícola, o que levou as instituições de pesquisa a buscar fontes alternativas para o financiamento de sua programação. A partir desse cenário, o presente trabalho analisa e discute a importância dos Fundos Competitivos como alternativa criativa e inovadora na captação de recursos para o financiamento da pesquisa agrícola no Brasil. A análise é feita a partir de estudo teórico sobre esse mecanismo de financiamento e com base em um estudo de caso do Sistema Competitivo do PRODETAB, implementado e coordenado pela Embrapa. O objetivo foi o de avaliar a importância e a contribuição dos fundos competitivos para o aumento da eficiência na alocação dos recursos públicos para a pesquisa agrícola e para a melhoria da qualidade dos projetos de pesquisa e desenvolvimento