881 resultados para Banco de dados e Sistemas de Informação em Saúde


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os sistemas empresariais, para serem avaliados, precisam, de alguma forma, ser enquadrados no atendimento de processos padronizados, para assim ser possível uma medição comparativa de sua eficiência e eficácia. Para isso foi realizada uma pesquisa através de um questionário, no qual o respondente avalia basicamente o atendimento de cada processo padronizado pelo sistema empresarial. Como resultado, constata-se que os sistemas empresariais estão atendendo apenas os processos principais das empresas, como “vendas”, “financeiro” e “produção”. Processos como “gestão ambiental” e “relações com a comunidade” não são atendidos, seja por não existirem esses módulos nos sistemas, seja por desinteresse das empresas em utilizá-los, mesmo que houvesse tal possibilidade. As empresas ainda pouco valorizam os sistemas empresariais e suas aplicações, deixando de usá-los em sua máxima eficiência. Como conseqüência, observa-se que o investimento em treinamento e qualificação dos usuários é muito baixo ou praticamente inexistente, o que implica o não aproveitamento das potencialidades máximas desses sistemas. Por outro lado, os próprios sistemas também apresentam deficiências: em muitos casos, não são flexíveis o suficiente para atender as particularidades de cada empresa, sem a necessidade de configuração. Além disso, cada sistema tem seus pontos fortes, que não necessariamente correspondem aos principais processos da empresa, gerando um descompasso entre o sistema e os processos da empresa. Como resultado final, conclui-se que há a necessidade de os sistemas empresariais serem mais abrangentes e flexíveis, para que possam incluir todos os processos empresariais, 6 e as empresas, por sua vez, devem se preparar melhor para usar todo o potencial já disponível da ferramenta, otimizando, dessa forma, seu investimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ambientes de engenharia apresentam a forte característica da necessidade de cooperação entre projetistas na concepção de projetos CAD, o que provoca uma série de problemas em relação aos ambientes usuais encontrados em aplicações convencionais. Na busca de solucionar tais problemas, vários recursos e mecanismos relativos às gerências de dados e do processo de projeto são apresentados em vários estudos encontrados na literatura. Boa parte desses recursos estão embutidos nesse trabalho, que visa apresentar um sistema gerenciador de documentação técnica para ambientes de engenharia/CAD chamado GerDoc Ábacus. A proposta da construção do GerDoc Ábacus é baseada na busca da solução dos problemas relativos à consistência dos dados de projetos e da integração de tarefas de projetistas que interagem em ambientes distribuídos de projeto. Unindo vários mecanismos, é proposta uma interface totalmente interativa, objetivando manter a harmonia entre projetistas que fazem parte de equipes de projetos que são mantidos em atividade durante longos períodos de tempo, além de documentar todos os passos realizados acerca de cada um desses projetos. Dessa forma, o GerDoc Ábacus é uma ferramenta organizacional e administrativa para projetos de engenharia, sendo de fácil operacionalização, buscando altos níveis de integridade dos dados mantidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em todas as organizações, o tratamento dos dados e das informações tem representado grande parte das preocupações dos administradores. A introdução de sistemas de informações e de tecnologia da informação, no seu mais amplo sentido, nas empresas de todas as especialidades, independentemente de seu porte, propicia agilidade, rapidez e precisão aos negócios. Contudo as empresas do subsetor de edificações da indústria da construção civil têm se caracterizado pelo uso de recursos computacionais num nível inferior ao observado em outros ramos industriais. Esta resistência à introdução de novas tecnologias é inversamente proporcional à quantidade de dados e informações processados e compartilhados pelos profissionais do setor. Em particular, deve-se salientar que, no processo de desenvolvimento do projeto executivo de uma obra de edificação, um número enorme de dados e informações recebe algum tipo de tratamento. Verificando-se que o processo de desenvolvimento dos documentos complementares à parte gráfica dos projetos, principalmente nas pequenas e i micro-empresas, tem se apresentado de forma inadequada à importância do setor e dos próprios documentos, este trabalho desenvolveu um sistema de informações baseado num modelo que integra a elaboração desses vários documentos. O sistema, denominado SINDOC, auxilia os usuários nos processos decisórios, fazendo com que soluções adequadas, completas e coerentes venham a ser obtidas. Para oferecer subsídios ao desenvolvimento do sistema, empresas do setor foram analisadas, assim como o perfil dos seus profissionais. Estes estudos garantiram que o sistema resultante fosse adequado para o setor. Isto foi comprovado mediante experimento em laboratório utilizado para avaliar e validar o sistema. O trabalho pretende contribuir para incentivar mudanças nas empresas do subsetor de edificações quanto ao tratamento de dados e informações, apresentando sistema adequado às suas necessidades e às características de seus usuários.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo genérico para o desenvolvimento de sistemas de gestão empresarial. O modelo foi criado com base na experiência profissional do autor do trabalho e revisão bibliográfica sobre a utilização de padrões de análise. O modelo proposto prioriza aspectos de simplicidade e flexibilidade no desenvolvimento de sistemas de informação. Sua utilização visa facilitar a reutilização de componentes, diminuir o tempo para o desenvolvimento de aplicativos e propiciar a criação de sistemas flexíveis que rapidamente possam se adaptar a novas necessidades dos processos de negócios. Os modelos estão descritos no corpo do trabalho e estendem a utilização dos padrões originais de onde os mesmos se originam, descrevendo os relacionamentos entre os modelos apresentados, suas classes e atributos. Exemplos da utilização prática dos modelos são apresentados em situações de negócios e conclusões sobre o potencial de utilização dos mesmos são discutidos ao final do trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nas aplicações do mundo real, os dados mudam com o passar do tempo. Devido à característica dinâmica das aplicações, o esquema conceitual também pode mudar para se adaptar às mudanças que freqüentemente ocorrem na realidade. Para representar esta evolução, uma nova versão do esquema é definida e os dados armazenados são adaptados à nova versão. Entretanto, existem aplicações que precisam acessar também o esquema sob os diversos aspectos de suas mudanças, requerendo o uso de versionamento de esquemas. Durante a evolução do esquema, o versionamento preserva todas as versões deste esquema e seus dados associados, possibilitando a recuperação dos dados através da versão com a qual foram definidos. Ultimamente muitas pesquisas têm sido realizadas envolvendo as áreas de versionamento de esquemas e bancos de dados temporais. Estes bancos de dados provêm suporte ao versionamento de esquemas, pois permitem armazenar e recuperar todos os estados dos dados, registrando sua evolução ao longo do tempo. Apesar de muitos esforços, ainda não existem SGBDs temporais comercialmente disponíveis. A utilização de um modelo de dados temporal para a especificação de uma aplicação não implica, necessariamente, na utilização de um SGBD específico para o modelo. Bancos de dados convencionais podem ser utilizados desde que exista um mapeamento adequado entre o modelo temporal e o SGBD utilizado. Este trabalho apresenta uma abordagem para a implementação de um banco de dados temporal permitindo o versionamento de esquemas, usando um banco de dados relacional, tendo como base o modelo temporal TRM (Temporal Relational Model). Como forma de ilustrar apresenta-se um exemplo de implementação utilizando o SGBD DB2. O principal objetivo é avaliar diferentes técnicas de implementar e gerenciar o versionamento de esquemas em bancos de dados temporais. Para atingir esse objetivo, um protótipo foi desenvolvido para automatizar os mapeamentos do TRM para o DB2 e gerenciar o versionamento de esquemas e dados. Duas experiências de implementação foram realizadas utilizando formas diferentes de armazenar os dados - um repositório e vários repositórios - com o objetivo de comparar os resultados obtidos, considerando um determinado volume de dados e alterações. Um estudo de caso também é apresentado para validar as implementações realizadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A personalização de produtos e serviços e o projeto em conjunto entre empresas e clientes representam hoje um diferencial competitivo de ambientes ágeis de negócios. Esta tendência também é válida para a indústria da construção civil, onde a customização do produto é de vital importância para a satisfação do cliente, cada vez mais desejoso de um imóvel de baixo custo e com um certo nível de exclusividade. Esta pesquisa procura levar contribuições para o setor da Indústria da Construção Civil utilizando conceitos atuais como o de manufatura ágil e dando ênfase à dimensão de interação com o cliente e à personalização de produtos. Estabelecer uma interação constante entre cliente e empresa é um dos requisitos fundamentais para a definição de um ambiente ágil de negócios. Alias, considera-se importante que as empresas construtoras, em seus planos estratégicos, busquem não somente melhorar a eficiência dos processos construtivos (através de programas de qualidade e produtividade), mas também, ampliar qualitativa e quantitativamente os atributos dos imóveis ofertados através da integração do cliente ao projeto de seu futuro imóvel. O objetivo principal deste trabalho consiste em desenvolver um modelo de sistema de informação (SPAIR: Sistema de Informações para Personalização de Imóveis Residenciais) para a interação entre clientes e empresas incorporadoras e construtoras de condomínios residenciais, permitindo a incorporação de práticas de manufatura ágil a estas empresas. Para captar a visão dos potenciais usuários do sistema, foi realizado um estudo de caso em uma empresa incorporadora e construtora de condomínios residenciais, no sentido de definir o que projetistas e compradores de imóveis consideram importante em termos de personalização. A modelagem conceitual do problema em estudo foi realizada utilizando-se uma abordagem orientada a objetos. A utilização desta abordagem permitiu a implementação de um protótipo, no qual existe uma relação direta entre os eventos que ocorrem no mundo real e no sistema computacional. Um protótipo foi desenvolvido, utilizando a Web como ambiente de execução, permitindo a utilização de SPAIR por qualquer usuário conectado a Internet. Embora o sistema tenha passado por um conjunto limitado de testes de validação, os resultados obtidos demonstram o potencial do mesmo como uma ferramenta efetiva de implementação dos conceitos de manufatura ágil e customização de massa na área de construção civil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A tomada de decisão é fator crucial nas organizações. As informações para subsidiar estes processos decisórios é que permitem ao decisor minimizar as incertezas e decidir melhor. Para que estas informações estejam disponíveis, devem ser construídos Sistemas de Informações (SI) com base nas necessidades dos decisores, através da adequada definição dos requisitos de informações. Este trabalho tem como objetivo a validação externa da metodologia Análise Focada na Decisão (AFD), desenvolvida por Santos, Becker e Fisher (1998) e que tem por objetivo definir os requisitos de informações para o desenvolvimento de SI. Tem como foco da análise o processo decisório e é composta por fases seqüenciais de atividades de análise e de modelagem de sistema, resultando um modelo integrado de fluxo de dados, onde os objetos estão centrados nas classes de decisões. A aplicação da AFD foi realizada em um hospital regional filantrópico, através de estudo de caso, sendo o Prontuário do Paciente (PP) o elemento central de integração. O objetivo da aplicação da metodologia é a definição das informações essenciais do PP, tendo como classes de decisão os usuários representativos das áreas médica, de enfermagem e administrativa e o modelo integrado resultante é a base para a definição das informações essenciais do PP. Pode-se concluir que a AFD é uma metodologia adequada para a definição de requisitos de informações, uma vez que os resultados de sua aplicação foram extremamente satisfatórios, pois, além do alcance dos objetivos propostos, propiciou mudanças na empresa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A porção média da Planície Costeira do Rio Grande do Sul constitui-se numa região crítica em termos de planejamento de uso devido a uma estreita conjunção de fatores de ordem econômica, ambiental, social e histórico-cultural, estabelecida, em princípio, pela presença de um importante complexo estuarinolagunar. Nessa área, bem como no restante da zona costeira do Brasil, as diretrizes para o uso sustentável dos recursos naturais estão materializadas em leis e programas governamentais, dos quais o Plano Nacional de Gerenciamento Costeiro representa a linha mestra para as ações nos três níveis de governo. A exploração de recursos minerais nessa região é uma atividade antiga, relativamente de pouca expressão no contexto estadual, mas de grande significado social, econômico e cultural em nível regional, sustentando a demanda de vários municípios da região. Caracteriza-se principalmente pela exploração de areia e argila para uso na construção civil e para aterro, apresentando ainda potencialidade alta para exploração de turfa e minerais pesados. Com o objetivo de contribuir para a solução dos conflitos gerados por um modelo de exploração mineral ainda inconsistente com as demandas atuais de conservação e desenvolvimento, realizou-se uma análise ambiental integrada da área dos entornos do estuário da Laguna dos Patos, compreendendo os municípios de Pelotas, Rio Grande e São José do Norte. A análise considerou os marcos legais e institucionais, as características diferenciadas do meio físico-natural, os processos econômicos, sociais e culturais, as características da atividade de mineração na região e suas repercussões e interações no sistema ambiental como um todo. As informações disponíveis permitiram a geração de um banco de dados no Sistema de Informações Geográficas IDRISI 32®, na escala 1: 100.000, o qual forneceu a base para a análise interpretativa. Utilizando técnicas de geoprocessamento obteve-se uma síntese dos diagnósticos realizados através da definição, mapeamento e descrição de 19 unidades de planejamento, denominadas unidades geoambientais, posteriormente detalhadas em 108 unidades físico-naturais. A síntese de uma grande quantidade de dados, espacializada na forma de um mapa digital, auxiliou a definição dos critérios para elaboração de um mapa de vulnerabilidade ambiental relativa para a região. Este, aliado ao plano de informação que contém todas as áreas com restrição legal de uso, possibilitou o mapeamento das áreas mais críticas para gestão ambiental. Adicionalmente, considerando a potencialidade de recursos minerais para uso na construção civil e para aterro, os critérios que determinam a maior ou menor atratividade econômica para a sua exploração e as áreas mais críticas em termos de gestão ambiental, elaborou-se um mapa prescritivo que indica as áreas que devem ser consideradas prioritárias para um gerenciamento preventivo. Finalmente, a análise ambiental integrada permitiu a elaboração de um modelo de um plano de gestão para o setor, onde é apresentada uma estrutura seqüencial e ordenada do plano, exemplificada, em cada passo, com as informações disponíveis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.