124 resultados para Modificações


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos requisitos naturais na modelagem de diversas aplicações na área de banco de dados é a utilização de um mecanismo para controle de versões. Esse mecanismo fornece suporte a um processo evolutivo. Tal suporte permite armazenar os diferentes estágios de uma entidade em tempos distintos, ou sob diferentes pontos de vista. Estudos recentes nessa área mostram a importância de incorporar ao modelo conceitual de banco de dados, um mecanismo para auxiliar no controle da evolução de versões. A evolução de versões apresenta problemas principalmente quando ocorre em uma hierarquia de composição. Por exemplo, se existem objetos compostos fazendo referência à objetos componentes que representam versões, então modificações nos componentes podem causar alterações nos objetos que os referenciam. Normalmente as ações relativas a essas modificações são a notificação ou a propagação de mudanças. Algumas propostas adicionam mecanismos de notificação e propagação ao modelo conceitual utilizado por aplicações não convencionais. Isso é importante porque mecanismos deste tipo auxiliam no controle da integridade de dados e na divulgação de informações sobre as mudanças realizadas no banco de dados. O objetivo do trabalho aqui descrito é apresentar um mecanismo de notificação e propagação, que trata da evolução de dados, para um modelo de versões. É definido um modelo de classes com propriedades e operações que permitem manter e manipular subscrições de eventos referentes à evolução de objetos e versões e reagir diante da ocorrência destes eventos. Para atender os requisitos das diferentes aplicações, esta proposta especifica três estratégias. Cada uma delas apresenta diferentes funcionalidades: notificação ativa (enviar mensagens sobre mudanças ocorridas); notificação passiva (armazenar informações sobre mudanças ocorridas) e propagação (alterar o conteúdo do banco de dados automaticamente). Para validar o mecanismo proposto, uma implementação é apresentada para o sistema Oracle 8.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As práticas gerencias de marketing das empresas, em tempos de hipercompetição, têm, cada vez mais, se orientado para o estabelecimento de relações de longo prazo com os consumidores. Fornecedores não mais administram produtos, mas sim clientes. Os objetivos desta busca de relacionamentos longos visam à obtenção de benefícios mútuos, onde fornecedor e cliente tenham vantagens por estarem engajados num relacionamento, orientado para o longo prazo, onde existam lealdade, confiança e comprometimento. Trata-se da emergência do Marketing de Relacionamento, novo paradigma que passa a orientar as ações comerciais das empresas. Nesta situação, novas variáveis se apresentam e exigem quantificação para que possam ser operacionalizadas, permitindo a gestão adequada dos esforços de marketing. Consoante com esta necessidade de mensuração, o objetivo deste trabalho foi definir uma escala que pudesse medir os atributos de Marketing de Relacionamento para um segmento específico do mercado business-tobusiness: o mercado de bens de capital. Esta escala foi obtida através de modificações introduzidas na escala de Wilson & Vlosky (1997), modificações estas resultantes de conclusões advindas de pesquisa bibliográfica e de consultas feitas a especialistas em marketing de relacionamento e profissionais com larga experiência na comercialização do tipo de produto em questão. A escala, assim obtida, foi aplicada a uma amostra de clientes da Kepler Weber, tradicional fornecedora brasileira de sistemas de armazenagem para VI grãos vegetais. As respostas obtidas foram, na seqüência, verificadas por meios estatísticos. Estas verificações indicaram algumas modificações na escala proposta inicialmente, resultando em outra de aplicação prática para o mercado de bens de capital. Além disso, foram obtidos os escores, referentes ao relacionamento existente entre a Kepler Weber e seus clientes relacionais, dos atributos medidos pela escala.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho pretende demonstrar as transformações nas qualificações dos operadores de máquina com a introdução de novos equipamentos no processo produtivo em três empresas do setor metal-mecânico do estado do Rio Grande do Sul. Com o auxílio de uma metodologia de natureza qualitativa buscou-se, através de entrevistas semi-estruturadas, captar a percepção dos operadores de máquinas, supervisores e gerentes sobre as modificações ocorridas na qualificação dos operadores de máquina automatizada na produção. A partir da revisão da literatura buscou-se construir o roteiro das entrevistas, diferenciadas para cada cargo, buscando captar as percepções dos diferentes atores sobre tecnologia, trabalho e qualificação. Como resultado estabeleceu-se a qualificação necessária e desejada de um trabalhador que opera uma máquina automatizada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A desregulamentação da economia brasileira na cadeia do leite em 1990 e a globalização da economia trouxeram grandes modificações e preocupações nos diferentes segmentos do sistema agroindustrial do leite. De outro lado, surgiu um consumidor mais exigente em produtos e serviços. Essa situação requer do produtor de leite, que é o elo mais frágil da cadeia, que tenha maior competitividade em produtividade, custo e qualidade, dentre outros fatores. Nesse sentido, este estudo analisa e avalia os coeficientes de desempenho dos indicadores técnico e econômico dos fatores da produção que caracterizam os diferentes sistemas de produção e identificam as unidades produtoras que são benchmarking em alguma prática, processo, procedimento ou indicador. Para tanto, realizou-se uma pesquisa a campo que obteve um retorno de 47,78% dos 32.188 questionários enviados. Além disso, realizou-se visita, entrevista e estudadas as 12 UPs benchmarking. Observou-se que as UPs benchmarking têm muito a ensinar à grande massa de produtores de leite e que todos os coeficientes dos indicadores técnicos e econômicos, práticas, processos e procedimentos são melhores do que a média de cada sistema da pesquisa geral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese buscou averiguar quais foram os efeitos, os impactos e modificações que ocorreram na dinâmica de funcionamento de fóruns do orçamento participativo, quando a este processo decisório de grupo em larga escala e com repercussões imediatas nas próprias comunidades decisoras se agregou um apoio computacional de pequena sofisticação, com o perfil de um sistema de apoio à decisão para grupos. Estas intervenções, talhadas sob a perspectiva quaseexperimental, levaram ao ambiente real de decisão um apoio derivado de modelos baseados em critérios e atributos para a hierarquização de demandas por obras de perfil público-social. A metodologia empregada, um esboço multimétodo com técnicas distintas de atuação por grupo trabalhado, incluindo nestas distinções o papel do pesquisador, foi levada a cabo em três regiões distintas do orçamento participativo. O pesquisador, enquanto ser observante, valeu-se de um diário de campo que ao lado dos tradicionais questionários usados em quaseexperimentos, funcionou como um coletor de dados, os quais foram suplementados com igual valia por entrevistas semi-estruturadas com os atores do processo. Técnicas elementares de estatística aliadas à interpretação dos dados qualitativos a partir de codificações sugeridas por técnicas de análise de conteúdo, forjaram um grande painel de dados, que permitiu apurar os impactos da adoção da tecnologia, bem como enquadrar os efeitos nas posturas dos grupos e dos atores participantes do processo. Como idéia conclusiva, o estudo permitiu estatuir que várias das situações em apoio à decisão em grupo ocorreram, alguns outros resultados foram inesperados e quiçá contraditórios em relação à história de pesquisa do tema apoio à decisão em grupo por computador e outros se revelaram promissores para futuras pesquisas. Por fim, argüi-se a necessidade de averiguar, em ambientes como o estudado, a relação real existente entre as conotações política e racional de tomada de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A criação de blocos econômicos com a respectiva abertura de mercado, têm acirrado a concorrência entre as empresas dos diferentes setores da economia. Nesta perspectiva, encontramos a cadeia produtiva da bovinocultura de corte sofrendo transformações, tanto no setor de comercialização como na produção e industrialização. Este estudo tem como objetivo demonstrar como está ocorrendo o relacionamento entre os agentes desta cadeia, bem como identificar alterações nestes relacionamentos à partir de uma regulamentação por parte do Ministério da Agricultura e Abastecimento do Brasil. Os elementos fundamentais desta análise são: uso de embalagem em cortes individuais de carne, sistemática de comercialização, inovação tecnológica, qualificação do produto e coordenação da cadeia produtiva, todos sob a perspectiva dos frigoríficos e produtores. Com base nas análises apresentadas, verificou-se que a cadeia produtiva da bovinocultura de corte, no estado do Rio Grande do Sul, está sofrendo modificações, pois enquanto as grandes empresas conquistam mercado a partir da qualificação do seu produto e fixação de sua marca, os demais agentes ainda não despertaram para as vantagens que podem usufruir a partir do uso da tecnologia de embalagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo foi desenvolvido dentro do projeto de pesquisa “Micrometeorologia da Mata Atlântica alagoana (MICROMA)” do Departamento de Meteorologia da Universidade Federal de Alagoas, que busca avaliar modificações no sistema solo-planta-atmosfera provocadas pela substituição da Mata Atlântica pela cultura da cana-de-açúcar, na Zona da Mata alagoana. O objetivo principal do presente estudo foi o ajuste do modelo de Penman-Monteith para o cálculo da evapotranspiração da cultura da cana-de-açúcar, na zona canavieira de Alagoas, a partir de determinações micrometeorológicas pelo método do balanço de energia, em diferentes estádios de desenvolvimento da cultura e em diferentes condições de demanda evaporativa atmosférica. A evapotranspiração foi estimada pelo método de Penman-Monteith e comparada com valores calculados através do balanço de energia, pela razão de Bowen, considerando este como método padrão. Medições micrometeorológicas foram feitas nos anos agrícolas de 1997/98 e 1998/99, em um área de 12,5ha de cultivo contínuo de cana-deaçúcar, cultivar SP 70-1143, sob condições de lavoura comercial, na Fazenda Vila Nova, município de Pilar, Alagoas (9o36´S, 35o53´W, 107m de altitude). Durante o período experimental, foram tomadas amostras quinzenais para determinar altura do dossel, comprimento de colmo, índice de área foliar e acúmulo de matéria seca (este apenas em 1998/99). Os parâmetros aerodinâmicos da cultura zo (comprimento de rugosidade) e d (deslocamento do plano zero) foram determinados a partir de perfis de vento, em condições de atmosfera neutra, e relacionados com a altura do dossel. Foram ajustados modelos para estimar o índice de área foliar e a altura do dossel da cultura em função do comprimento do colmo. O fracionamento do saldo de radiação no chamado “período potencial”, sem deficiência hídrica e com a cultura cobrindo completamente o solo, foi de 78% para o fluxo de calor latente de evaporação, 21% para o fluxo de calor sensível na atmosfera e aproximadamente 0,1% para o luxo de calor no solo. A estimativas pelo método de Penman-Monteith se ajustaram ao valores calculados pelo método do balanço de energia, tanto para médias qüinqüidiais (r = 0,93) como para valores diários (r = 0,91). Assim, dados confiáveis de evapotranspiração da cultura de cana-de-açúcar podem ser obtidos pelo método de Penman-Monteith ajustado neste trabalho, para a zona canavieira de Alagoas, em períodos sem deficiência hídrica e com cobertura completa do solo. O uso deste método apresenta a vantagem prática de requerer apenas dados meteorológicos, medidos em apenas um nível, em estações meteorológicas convencionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considerando não apenas a importância das antraciclinas na terapêutica do câncer, mas também os efeitos colaterais associados ao uso destas drogas, o presente estudo procurou avaliar a atividade genotóxica de seis antraciclinas em uso clínico - doxorrubicina (DOX), daunorrubicina (DNR), epirrubicina (EPI), idarrubicina (IDA), além dos análogos de última geração, pirarrubicina (THP) e aclarrubicina (ACLA). Para tanto, foi empregado o Teste de Mutação e Recombinação Somática (SMART) em Drosophila melanogaster, que permite a detecção simultânea de mutação gênica e cromossômica, assim como de eventos relacionados com recombinação mitótica - possibilitando quantificar a contribuição deste último parâmetro genético para a genotoxicidade total induzida pelas drogas em estudo. Os dados obtidos a partir desta análise demonstraram que todas as antraciclinas estudadas induziram acréscimos significativos, relacionados tanto à mutação, quanto à recombinação nas células somáticas deste inseto. Além disso, a recombinação mitótica - entre cromossomos homólogos - foi o evento responsável por, aproximadamente, 62 a 100% da toxicidade genética observada. A comparação do potencial genotóxico dos diferentes análogos, através da padronização do número de danos genéticos por unidade de tratamento (mM), caracterizou a ACLA e o THP como as drogas mais potentes – sendo cerca de 20 vezes mais efetivas, como genotoxinas, do que a DOX, o análogo menos potente. Já que a principal ação genotóxica desta família de compostos está relacionada à inibição da topoisomerase II (topo II) – uma enzima que atua no relaxamento da supertorção da dupla hélice de DNA, através da quebra e posterior religação de suas fitas - as diferenças observadas podem ser atribuídas ao mecanismo envolvido neste bloqueio Enquanto os análogos DOX, DNR, EPI, IDA e THP atuam como venenos de topo II - tornando permanentes as quebras induzidas pela enzima - a ACLA inibe a função catalítica desta enzima, impedindo a sua ligação ao DNA. Cabe ainda ressaltar que a genotoxicidade da ACLA não está restrita à sua atividade catalítica sobre a topo II, mas também à sua ação como veneno de topo I e à sua habilidade de intercalar-se na molécula de DNA. Quando a potência genotóxica destas drogas foi associada a suas estruturas químicas, observou-se que substituições no grupamento amino-açúcar levaram a uma maior atividade tóxico-genética, quando comparadas a modificações no cromóforo. Cabe ainda ressaltar que as modificações estruturais, presentes nos análogos DOX, DNR, EPI, IDA e THP, não alteraram a sua ação recombinogênica. No entanto, no que se refere a ACLA, observaram-se decréscimos significativos na indução de recombinação mitótica - que podem ser atribuídas às múltiplas substituições presentes tanto no grupamento amino-açúcar quanto no cromóforo. O conjunto destas observações evidencia que a genotoxicidade total das drogas em estudo está centrada na indução de recombinação homóloga - um evento predominantemente envolvido tanto na iniciação, quanto na progressão do câncer. A alta incidência de tumores secundários, em pacientes submetidos ao tratamento com as antraciclinas, pode, pois, ser atribuída à ação preferencial destas drogas sobre a recombinação mitótica – embora a atividade mutagênica não possa ser desconsiderada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da competição nos últimos anos tem levado as empresas a formarem cadeias produtivas gerenciadas pelo uso da Tecnologia da Informação. Ademais, a necessidade de redução dos custos e o aumento da eficiência são exigências cada vez mais freqüentes nas relações entre as empresas. Levando-se em conta a realidade do contexto analisado, esta dissertação tem como objetivo analisar a implementação de processos baseados na integração e as modificações decorrentes nas relações entre Expresso Mercúrio S.A. e seus clientes, parceiros e fornecedores. Para atingir tal objetivo foram feitas entrevistas e observações na empresa estudada, visando analisar as finalidades, desafios e oportunidades da formação de cadeias de valor baseadas no uso da TI, e identificar as caracterís ticas de uma cadeia eletrônica. De acordo com a análise das informações obtidas, verificaram-se o interesse e a necessidade das empresas em participarem ativamente de cadeias eletrônicas, entretanto avanços podem ser realizados, tanto no que se refere às informações compartilhadas como ao uso da tecnologia da informação, sobretudo da Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O comportamento hidrológico de grandes bacias envolve a integração da variabilidade espacial e temporal de um grande número de processos. No passado, o desenvolvimento de modelos matemáticos precipitação – vazão, para representar este comportamento de forma simplificada, permitiu dar resposta às questões básicas de engenharia. No entanto, estes modelos não permitiram avaliar os efeitos de modificações de uso do solo e a variabilidade da resposta em grandes bacias. Este trabalho apresenta o desenvolvimento e a validação de um modelo hidrológico distribuído utilizado para representar os processos de transformação de chuva em vazão em grandes bacias hidrográficas (maiores do que 10.000 km2). Uma grade regular de células de algumas dezenas ou centenas de km2 é utilizada pelo modelo para representar os processos de balanço de água no solo; evapotranspiração; escoamentos: superficial, sub-superficial e subterrâneo na célula; e o escoamento na rede de drenagem em toda a bacia hidrográfica. A variabilidade espacial é representada pela distribuição das características da bacia em células regulares ao longo de toda a bacia, e pela heterogeneidade das características no interior de cada célula. O modelo foi aplicado na bacia do rio Taquari Antas, no Rio Grande do Sul, na bacia do rio Taquari, no Mato Grosso do Sul, e na bacia do rio Uruguai, entre Rio Grande do Sul e Santa Catarina. O tamanho destas bacias variou entre, aproximadamente, 30.000 km2 e 75.000 km2. Os parâmetros do modelo foram calibrados de forma manual e automática, utilizando uma metodologia de calibração automática multi-objetivo baseada em um algoritmo genético. O modelo foi validado pela aplicação em períodos de verificação diferentes do período de calibração, em postos fluviométricos não considerados na calibração e pela aplicação em bacias próximas entre si, com características físicas semelhantes. Os resultados são bons, considerando a capacidade do modelo de reproduzir os hidrogramas observados, porém indicam que novas fontes de dados, como os fluxos de evapotranspiração para diferentes coberturas vegetais, serão necessários para a plena utilização do modelo na análise de mudanças de uso do solo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tecnologia de workflow vem apresentando um grande crescimento nos últimos anos. Os Workflow Management Systems (WfMS) ou Sistemas de Gerenciamento de Workflow oferecem uma abordagem sistemática para uniformizar, automatizar e gerenciar os processos de negócios. Esta tecnologia requer técnicas de engenharia de software que facilitem a construção desse tipo de sistema. Há muito vem se formando uma consciência em engenharia de software de que para a obtenção de produtos com alta qualidade e que sejam economicamente viáveis torna-se necessário um conjunto sistemático de processos, técnicas e ferramentas. A reutilização está entre as técnicas mais relevantes desse conjunto. Parte-se do princípio que, reutilizando partes bem especificadas, desenvolvidas e testadas, pode-se construir software em menor tempo e com maior confiabilidade. Muitas técnicas que favorecem a reutilização têm sido propostas ao longo dos últimos anos. Entre estas técnicas estão: engenharia de domínio, frameworks, padrões, arquitetura de software e desenvolvimento baseado em componentes. Porém, o que falta nesse contexto é uma maneira sistemática e previsível de realizar a reutilização. Assim, o enfoque de linha de produto de software surge como uma proposta sistemática de desenvolvimento de software, baseada em uma família de produtos que compartilham um conjunto gerenciado de características entre seus principais artefatos. Estes artefatos incluem uma arquitetura base e um conjunto de componentes comuns para preencher esta arquitetura. O projeto de uma arquitetura para uma família de produtos deve considerar as semelhanças e variabilidades entre os produtos desta família. Esta dissertação apresenta uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow. Esta arquitetura pode ser usada para facilitar o processo de produção de diferentes sistemas de gerenciamento de workflow que possuem características comuns, mas que também possuam aspectos diferentes de acordo com as necessidades da indústria. O desenvolvimento da arquitetura proposta tomou como base a arquitetura genérica e o modelo de referência da Workflow Management Coalition (WfMC) e o padrão de arquitetura Process Manager desenvolvido no contexto do projeto ExPSEE1. O processo de desenvolvimento da arquitetura seguiu o processo sugerido pelo Catalysis com algumas modificações para representar variabilidade. A arquitetura proposta foi descrita e simulada através da ADL (Architecture Description Language) Rapide. A principal contribuição deste trabalho é uma arquitetura de linha de produto para sistemas de gerenciamento de workflow. Pode-se destacar também contribuições para uma proposta de sistematização de um processo de desenvolvimento de arquitetura de linha de produto e também um melhor entendimento dos conceitos e abordagens relacionados à prática de linha de produto, uma vez que esta tecnologia é recente e vem sendo largamente aplicada nas empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.