213 resultados para Maquinas-ferramenta - Controle numerico


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, um dos grandes desafios para qualquer desenvolvedor de software é projetar um sistema que reutilize ao máximo elementos de código e de projeto existentes, visando diminuir o tempo e o esforço exigidos na produção do software. Entre as inúmeras formas de possibilitar reuso no contexto do desenvolvimento segundo o paradigma da orientação a objetos, destaca-se a abordagem de frameworks. A grande importância da documentação de software utilizada no processo de desenvolvimento aliada às características de frameworks serviram como motivação para este trabalho. A documentação dentro do processo de desenvolvimento de software não faz parte de uma fase definida, mas ocorre durante toda sua existência, em paralelo com outras fases do ciclo de vida. A abordagem de frameworks dentro deste contexto enfoca o tratamento de templates e definições das características dos artefatos de software (incluindo não somente código mas também produtos de análise, projeto, frameworks, componentes, diagramas, entre outros), facilitando e acelerando o processo de documentação. Um framework, devido a suas características peculiares que serão examinadas e explicitadas no trabalho, contém uma série de informações que podem, além de apoiar a documentação, ser úteis para produção de outros artefatos (por exemplo, planejamentos de teste, scripts de bancos de dados, padrões de codificação, entre outros) do processo de desenvolvimento. Assim, em um processo de desenvolvimento evolutivo, que utiliza a geração de artefatos como recurso, a manutenção pode ser integralmente realizada somente na especificação e não diluída nos artefatos gerados. O objetivo deste trabalho é investigar, propor e desenvolver uma ferramenta de documentação e geração de artefatos de software, denominado FrameworkDoc. O termo documentação de software aqui utilizado se refere a documentação de desenvolvimento de software, incluindo artefatos, arquiteturas, ferramentas entre outros. Serão abordados dois principais aspectos: primeiramente, a geração automática de documentação dentro do processo de desenvolvimento de software e depois a geração de outros artefatos deste processo, a partir das definições de alto nível disponíveis através do framework. Exemplos de aplicações do FrameworkDoc em projetos reais são apresentados. No entanto, os documentos e artefatos de software considerados foram definidos de forma suficientemente genérica para serem aproveitados em outros contextos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aborda a redução da variabilidade e a reduçaõ de perdas da má qualidade em um processo de corrugação de chapas de corpo de silos de grãos, através da utilização de Controle Estatístico do Processo (CEP). Foram analisadas e monitoradas as principais características e variáveis que influenciam o processo produtivo. Também foi proposto o uso de um item de controle igualmente chamado indicador de desempenho para permitir acompanhamento das perdas da má qualidade no mesmo processo, no Departamento de Produção, Setor Estamparia, da empresa GSI Group - Agromarau Indústria e Comércio Ltda. A dissertação apresenta uma revisão da literatura abordando assunto qualidade, custos da qualidade, indicadores de desempenho e Controle Estatístico do Processo. As ações de, monitoramento do processo, evolução de sistemas de inspeção de produto para sistemas de aprendizagem com o processo, medição das perdas da qulaidade, ação imediata sobre causas especiais e treinamento de operadores, analistas da qualidade e chefias, proporcionaram a redução da variabilidade e a redução das perdas da má qulaidade, através da implantação do CEP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aplicações recentes no setor de automação industrial utilizam barramentos de campo para prover comunicação entre dispositivos. Estas aplicações normalmente exigem que os barramentos apresentem suporte tempo real. A garantia do adequado atendimento a requisitos temporais restritos é de fundamental importância para o correto funcionamento do sistema. Este documento apresenta um sistema de validação temporal para aplicações desenvolvidas utilizando tecnologias de barramentos de campo. O sistema desenvolvido, chamado BR-Tool, permite monitoração em tempo de execução de uma rede de barramento de campo, confrontando os dados obtidos com requisitos temporais previamente definidos pelo operador. O sistema BR-Tool é composto por dois elementos: um sub-sistema de aquisição de mensagens (placa de aquisição) e um sub-sistema de validação (ferramenta computacional). A placa de aquisição foi especialmente projetada para operar com diferentes interfaces de barramentos de campo, realizando as tarefas de captura de eventos, marcação temporal e salvamento de um histórico de eventos. A ferramenta de validação, que roda no computador, realiza as tarefas de filtragem de eventos, especificação de requisitos e validação temporal, permitindo diversos modos de visualização dos resultados. A comunicação entre a placa de aquisição e a ferramenta de validação é implementada por uma interface PCI, permitindo operar com velocidades de até 12Mbps.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta Tese, busco, a partir da análise de diversos textos publicados sobre a escola em diferentes mídias, compreender algumas das condições de possibilidade que permitem à instituição escolar se “modernizar” para continuar produzindo corpos e mentes dóceis, disciplinados, educados, controlados, com o mínimo exercício da violência explícita e a máxima utilização da vigilância contínua, implícita e internalizada. Analiso, em particular, as reportagens veiculadas sobre a escola – ou mais precisamente sobre a violência escolar, as novas tecnologias de comunicação e informação, os mecanismos de controle e a educação a distância – em duas revistas de informação semanais e de circulação nacional – Veja e IstoÉ –, de 1998 a 2002. Estes temas, creio, perfazem uma teia discursiva que, de um lado, justificam e atualizam a importância da instituição escolar em nossa sociedade. Por outro lado, entretanto, mostram algumas das dificuldades enfrentadas pela escola para continuar operando nos tempos e espaços em que tradicionalmente tem operado. Um de meus objetivos foi problematizar a relação existente entre as reportagens sobre a violência nas escolas (mas também fora delas) e aquelas que mostram ser os novos mecanismos de controle úteis e necessários para garantirem a nossa qualidade de vida e evitarem os contínuos riscos a que estamos expostos. Analisei também a produtividade das reportagens sobre as novas tecnologias, que estão cada vez mais sendo por nós utilizadas. Segundo as reportagens analisadas, tais tecnologias são tão necessárias em nossas vidas, que em breve não poderemos mais viver sem elas. A importância de continuarmos permanentemente em formação, nos variados tempos e espaços existentes (seja na escola, em casa ou no trabalho) foi a tônica das reportagens sobre Educação. Ao mesmo tempo, se alguns de nós encontram dificuldades para continuar freqüentando as escolas – porque violentas demais, porque estamos sem tempo, ou porque elas estão geograficamente distantes, entre outras justificativas apresentadas – as verdades enunciadas nas reportagens indicam alguns caminhos possíveis. A análise desta “trama dispositiva” (dizível e visível) sobre os temas escolhidos em relação à escola me permitiu, ao problematizar algumas das relações discursivas existentes, confirmar o quanto a mídia, de uma maneira geral, enfatiza a relevância da escola entre nós, ainda que esta tenha que recorrer a uma “aparente” transformação total ou que isto resulte em uma política de desagregação social e de pacificação isolacionista que sujeita e assujeita, complexifica relações e contribui para extinguir os contatos físicos existentes entre nós, na atualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

XIXA doença do refluxo gastroesofágico (DRGE) comumente afeta o esôfago e provavelmente é a condição mais prevalente no segmento alto do trato gastrointestinal, acometendo entre 5 e 45% da população ocidental. A terapêutica atual para essa doença além de medidas gerais e dietéticas, inclui tratamento farmacológico e/ou cirurgia. Ambos podem ser eficazes, mas apresentam elevado custo financeiro. O tratamento com fármacos pode apresentar baixa aderência medicamentosa e a cirurgia tem baixa, mas não desprezível, morbidade e mortalidade. Idealmente o tratamento da DRGE deveria ser eficaz, com baixo risco e com baixo custo. Objetivos: 1. Desenvolver um modelo experimental em suínos para o estudo do Refluxo Gastroesofágico através da Pressão e do Volume de Vazão Gástricos; 2. Avaliar a eficácia do implante endoscópico de PMMA ao nível do Esfíncter Esofágico Inferior (EEI) para aumentar a Pressão de Vazão Gástrica, o Volume de Vazão Gástrico e a Pressão Basal do EEI; 3. Descrever as reações histológicas associadas ao implante de PMMA. Material e Métodos: Suínos da raça Large White, do sexo feminino com 8 semanas de vida foram estudados no experimento. Foi realizada manometria do esfíncter esofágico inferior com registro da pressão basal com cateter de perfusão com água e técnica de retirada lenta. Calculou-se, também, a extensão do EEI. Após, gastrostomia era realizada com colocação intragástrica da extremidade distal de uma sonda de Foley com três vias e um cateter de pHmetria esofágica introduzido via oral com o sensor distal posicionado 5 cm acima do bordo superior de esfíncter esofágico inferior. Iniciava-se, XXentão, a infusão contínua no estômago de uma solução de HCl a 0,02N com medida e registro simultâneos da Pressão e do Volume de Vazão Gástricos e do pH esofágico. Definiu-se a Pressão de Vazão Gástrica (PVG) e o Volume de Vazão Gástrico quando houve brusca e sustentada acidificação do esôfago distal (pH<3). Após, introduzia-se um tubo metálico (Tubo Introdutor ou TI) via oral e, em seguida, o endoscópio, seguindo ambos até o esôfago distal. Cateter de nylon com agulha calibre 16 era introduzido pelo tubo introdutor e o PMMA implantado na área correspondente ao EEI com uma pistola dosadora volumétrica que permitia a injeção de volumes prédeterminados em 3 ou 4 pontos da submucosa (total por ponto = 0,73 ml de PMMA). As medidas de PVG, VVG e pressão basal do EEI foram repetidas após 28 dias, sacrificando-se os animais e removendo-se esôfago médio e distal, junção esofagogástrica, fundo e corpo gástricos para estudo histológico. Previamente ao experimento, três projetos pilotos foram desenvolvidos. O primeiro designado como “Projeto Piloto: Refluxo Gastroesofágico por pHmetria de 24H” (RGE 24H) buscou a via de acesso transnasal para registro de pHmetria por 24 horas. No segundo, designado “Projeto Piloto: Esofagostomia”, para confirmação de refluxo gastroesofágico espontâneo em suínos da raça Large White, utilizou-se anestesia com associação de tiletamina 125 mg e zolazepam 125 mg em combinação com um sedativo, a xilazina a 2% . A pHmetria foi mantida por 24 horas. Os dados descritos por Kadirkamanathan et al. não foram reproduzidos no nosso laboratório. Optou-se então pela realização de um terceiro projeto, “Projeto Piloto: Gastrostomia” para induzir refluxo gastroesofágico através de um modelo experimental e testar a reprodutibilidade da Pressão de Vazão Gástrica. Obteve-se sucesso. Resultados: Trinta e sete animais foram estudados em 60 intervenções no Laboratório de motilidade experimental. O projeto piloto “RGE:24h” foi abandonado após perda de 5 animais pela anestesia com halotano e, solucionada esta questão, a sistemática infecção do tecido celular subcutâneo nasal, dificultando a manutenção do cateter de phmetria em outros 5 animais. No “Projeto Piloto: Esofagostomia”, em cinco animais estudados (cada animal em duas ocasiões diferentes) não se reproduziram os achados de refluxo espontâneo. No terceiro projeto “Projeto Piloto: Gastrostomia” quatro animais foram estudados em dois momentos diferentes obtendo-se sucesso e reprodutibilidade XXIdos dados. Criado o modelo experimental, quatorze suínos foram submetidos ao experimento com implante endoscópico de PMMA com os seguintes resultados: A média dos pesos com 8 semanas de idade foi 14,98 ± 2,43 e 28 dias após o implante, 20,26 ± 3,68. O ganho ponderal foi considerado normal para a espécie. A Pressão de Vazão Gástrica média no dia 1 foi 8,08 mmHg e no dia 28, 10,69mmHg (Teste t de Student: t = 2,72 gl = 13 p = 0,017). Os Volumes de Vazão Gástricos médios foram: 392,86 ml para o dia 1 e 996,71 ml no dia 28 (teste t de Student: t = 11,66 gl = 13 p< 0,001). A Pressão Basal do EEI e o comprimento do esfíncter, não apresentaram diferenças estatisticamente significativas. PMMA foi identificado como depósitos de grandes vacúolos no tecido intersticial ao exame histológico da junção esofagogástrica associado a histiócitos, plasmócitos e presença de células gigantes tipo Langhans indicando reação tecidual de corpo estranho em todos os animais. Fibrose e macrófagos com vacúolos intracelulares estiveram presentes em menor freqüência. Conclusões: 1. O modelo experimental, em suínos, desenvolvido viabilizou o estudo do Refluxo Gastroesofágico através da Pressão de Vazão Gástrica e Volume de Vazão Gástrico; 2. O implante de PMMA, no presente estudo, aumentou a Pressão de Vazão e o Volume de Vazão Gástricos, mas não a Pressão Basal do EEI, nem tampouco aumentou o seu comprimento; 3. Depósito de PMMA implantado e evidência de processo inflamatório crônico e reação tecidual de corpo estranho foi encontrada no local do implante de PMMA. Macrófagos com vacúolos intracelulares e fibrose foram encontrados com menos freqüência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise cefalométrica é utilizada pelos cirurgiões-dentistas como auxiliar no diagnóstico, planejamento e acompanhamento do tratamento de seus pacientes ortodônticos, cirúrgicos e ortopédicos. No entanto, não é uma ferramenta tão precisa, pois erros significantes estão presentes nas medidas obtidas pelo mesmo ou diferentes examinadores. Assim, faz-se necessário um maior controle dos erros implicados na identificação dos pontos cefalométricos. O objetivo deste estudo foi avaliar a reprodutibilidade de medidas cefalométricas obtidas de cefalogramas realizados por três especialistas em radiologia e compará-la aos resultados obtidos por três clínicas de radiologia odontológica. Para tanto, os examinadores realizaram cefalogramas de 39 telerradiografias pertencentes à amostra de Silveira, 2003. Através do teste ANOVA, verificou-se reprodutibilidade para 17 dos 32 valores dos fatores cefalométricos analisados, o que corresponde a uma concordância em 53,1% dos fatores, enquanto as clínicas de radiologia concordaram em apenas 12,5% destes. A partir dos resultados encontrados, concluiu-se que os três especialistas em radiologia apresentaram maior reprodutibilidade nos traçados cefalométricos do que as clínicas de radiologia estudadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O experimento foi conduzido no município de Cachoeira do Sul de out/2001 a out/2002, objetivando avaliar a dinâmica vegetacional e o desempenho animal (31/05/02 a 16/09/02), em uma pastagem nativa submetida a diferentes métodos de controle de plantas indesejáveis. O local corresponde à região fisiográfica denominada Serra do Sudeste, com predominância das espécies Paspalum notatum (grama forquilha), Andropogon lateralis (capim caninha), além de Arachis burkartii e Desmodium incanum. Como plantas classificadas como indesejáveis encontram-se Baccharis trimera (carqueja), Vernonia nudiflora (alecrim) e Psidium luridum (araçá do campo). O delineamento experimental utilizado foi um fatorial em blocos (4 x 2), com duas repetições de campo. Os tratamentos foram os seguintes: testemunha (T); roçada de primavera (P); roçada de primavera + outono (O) e roçada de primavera + controle químico (Q), todos em duas ofertas de forragem, média (8%) e alta (14%). Os animais testes foram três novilhas por repetição, mantidas em pastejo contínuo com lotação variável. A massa de forragem foi obtida através de avaliações visuais usando padrões de referência, o acúmulo de forragem através do uso de gaiolas de exclusão e a composição botânica pelo método do ponto. Avaliaram-se os parâmetros de desempenho individual, carga animal, ganho de peso vivo por área e a dinâmica vegetacional. Os dados foram submetidos a análise de variância através do pacote estatístico SAS. O nível alto de oferta permitiu uma menor perda de peso vivo por área. Os tratamentos P e Q proporcionaram um melhor desempenho individual e menor perda de peso vivo por área, quando comparados a T. Os tratamentos P, O e Q foram eficientes no controle de Baccharis trimera. A. burkartii e Eriyngium horridum foram incrementados pela média intensidade de pastejo. Aristida laevis teve sua participação aumentada pela interação tratamento Q e baixa intensidade de pastejo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tese apresenta um estudo sobre o tema da formação continuada de professores. Inspirado principalmente na arqueologia e na genealogia de Michel Foucault, utilizo o conceito alforria —enfatizando o duplo movimento articulado que esse conceito encerra, enquanto uma liberdade que é dada, de romper grilhões e de arremeter o alforriado à situação de permanecer girando em órbita, sob controle— como uma ferramenta para questionar, pensar e problematizar a emergência da formação continuada de professores no Brasil. O estudo desenvolve-se, basicamente, em três grandes movimentos. O primeiro, compreende uma leitura mais ou menos sistemática da obra de Foucault, que me permitiu propor e desenvolver uma investigação inspirada no pensamento pós-estruturalista. Essa inspiração reflete-se, principalmente, na abordagem genealógica do tema, na escolha das ferramentas teóricas e no modo peculiar de analisar os discursos. O segundo movimento compreende uma caracterização genérica da “passagem” da sociedade de disciplinas para a sociedade de normalização. Descrevo algumas transformações ocorridas nos modos de perceber, significar e usar o espaço e o tempo e, também nas relações de poder. Faço essa descrição relacionando essas transformações com a Escola inserida na Modernidade. Com essa caracterização, em que a alforria desenha-se em cada um desses conjuntos de transformações, teço uma espécie de pano de fundo sobre o qual é possível tomar a formação continuada enquanto um imperativo, enquanto uma ordem para que haja uma continuidade, em consonância com as transformações espaciotemporais e políticas. Estabelecendo uma ponte com o próximo movimento apresento alguns aspectos das sociedades de soberania, de disciplinas e de normalização, ressaltando os interstícios em que emerge a formação de professores e em que se inicia a formação das condições políticas que tornaram possível a formação continuada de professores. E, no terceiro movimento, problematizo especialmente a emergência da formação continuada de professores no Brasil. Em primeiro lugar, abordo a emergência da formação de professores, na França do século XVII/XVIII e sua chegada ao Brasil, no século XIX. Em segundo lugar, a partir de enunciados garimpados na Revista Brasileira de Estudos Pedagógicos (RBEP), editada pelo Instituto Nacional de Estudos Pedagógicos (INEP), do Ministério da Educação e Cultura (MEC), descrevo algumas problematizações espaciotemporais da educação escolar e da formação de professores, que se desenvolveram na primeira metade do século XX, pelo funcionamento de alguns discursos constitutivos da política educacional brasileira. Ao descrever esses enunciados, implicados na crise moderna da Escola e envolvidos em relações de poder, eu argumento que eles contribuíram para compor as condições políticas para a emergência da formação continuada no Brasil. E, por último, questiono essa emergência na virada da Modernidade para a Contemporaneidade, apresentando e discutindo alguns dos seus aspectos. Em suma: este trabalho apresenta a Tese de que a emergência da formação continuada de professores no Brasil produziu-se no interstício que se formou na virada do modo de vida moderno para o modo de vida contemporâneo, na ordem da biopolítica e nos moldes da alforria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Teoria das Categorias é uma ramificação da Matemática Pura com campo científico aparentemente distinto daquele que é objeto de estudo e pesquisa para a Ciência da Computação. Entretanto, algumas características dessa teoria matemática demonstram sua utilidade na pesquisa computacional. Dentre essas características podemos citar independência de implementação, dualidade, herança de resultados, possibilidade de comparação da expressividade de formalismos, notação gráfica e, sobretudo, expressividade das construções categoriais. Sua expressividade é explicitamente destacada pelo MEC nas Diretrizes Curriculares de Cursos da Área de Computação e Informática, onde afirma-se que “Teoria das Categorias possui construções cujo poder de expressão não possui, em geral, paralelo em outras teorias”. Entretanto, Teoria das Categorias tem encontrado obstáculos para ser efetivamente aplicada na Ciência da Computação. A baixa oferta de bibliografia - predominantemente de língua inglesa - e a falta de uniformidade na exposição do que sejam os tópicos introdutórios convergem e potencializam outro grande empecilho à sua propagação: a baixa oferta de cursos com enfoque em Teoria das Categorias. A fim de transpor essas dificuldades, Fábio Victor Pfeiff desenvolveu o CaTLeT, um aplicativo de interface visual que tinha como objetivo facilitar o acesso aos conceitos introdutórios de Teoria das Categorias Com inspiração fortemente educacional, CaTLeT somente é capaz de representar objetos e morfismos atômicos, o que o limita a servir somente aos conceitos iniciais. Em 2003, o CaTLeT foi ampliado e os objetos e morfismos, antes atômicos, passaram a representar conjuntos e relações, respectivamente. Este projeto consiste em uma ampliação tanto do CaTLeT quanto dos objetivos que justificaram sua criação. Esta dissertação trata de um projeto de simulador categorial e de sua respectiva implementação as quais visam fornecer suporte computacional a fim de facilitar o acesso a conceitos intermediários de Teoria das Categorias e servir como suporte à pesquisa na área. A construção desse simulador possui três critérios de avaliação como parâmetro: boa acessibilidade, alta relevância das estruturas implementadas e alta cobertura. A nova ferramenta - denominada CaTReS - deve manter a acessibilidade a usuários leigos que sua predecessora possui e ampliar significativamente as estruturas suportadas, além de incluir tratamento à conceitos funtoriais. Dessa maneira, este projeto vem para auxiliar na superação dos obstáculos anteriormente mencionados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Planejamento Estratégico é peça da maior importância em uma Organização. Normalmente, após exaustivas reuniões e custos significativos em sua elaboração, ele é engavetado ou passa a ser uma peça decorativa. Esta dissertação apresenta a construção do Painel de Pilotagem para a utilização do Balanced Scorecard em empresa de autogestão, sem fins lucrativos, que atua na área de saúde. Para atingir os objetivos da pesquisa, o método foi o de pesquisa-ação. O Balanced Scorecard é uma ferramenta para a implantação da Estratégia Empresarial. A discussão, os debates da Estratégia, a sua demonstração e aplicação e acompanhamento via Painel de Pilotagem são um diferencial significativo para o acompanhamento da gestão. O alinhamento obtido nos dez meses de reuniões para a construção do Painel de Pilotagem, na empresa pesquisada, demonstra o interesse da organização em efetivar a implantação de seu Planejamento Estratégico. Com a implantação do BSC, a determinação dos rumos do negócio deixará de apoiar-se basicamente em análise de dados do passado, para demonstrar o desempenho do que foi feito na Empresasaúde RS, mas possibilitará, também, uma melhor projeção e visualização do futuro, para demonstrar o que deverá ser feito, o caminho a ser percorrido.