86 resultados para Arquitetura : Conceitos
Resumo:
Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.
Resumo:
O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.
Resumo:
Resumo não disponível.
Resumo:
o objeto de estudo desta dissertação é a aplicação de conceitos do Sistema Toyota de Produção (STP) na melhoria de um processo de fabricação de calçados. Utilizando como base o princípio do não-custo e do Mecanismo da Função Produção (MFP), e as Sete Classes de Perdas do Sistema Toyota de Produção, além de algumas de suas técnicas, pretende-se realizar uma análise envolvendo i) um modelo de calçados, ii) uma linha de produção, e iii) uma das operações que fazem parte dessa linha de produção de calçados. Nos três casos o objetivo é identificar as perdas e, posteriormente, sugerir melhorias para eliminá-Ias e/ou reduzi-Ias. Tal análise se dá em três momentos: primeiramente, utiliza-se a Análise do Valor objetivando reduzir o custo dos componentes do produto (calçado) em fabricação. Em um segundo momento, um Fluxograma de Processo é utilizado para mapear o processo e, através da análise da transformação da matériaprima em produto acabado, são identificadas perdas e sugeridas alternativas para eliminá-Ias ou reduzi-Ias. Finalmente, através das técnicas de Estudo do Trabalho (Estudo de Método e Medida do Trabalho - cronometragem), analisa-se uma das operações que fazem parte desse processo produtivo. Por sua importante ligação com a melhoria da qualidade, especificamente no que se refere a eliminar ou reduzir a classe de perda denominada como "Perdas por Fabricação de Produtos Defeituosos", dispositivos Poka-Yoke também são abordados e aplicados nesta dissertação.
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
Em Leitura (in)fluente é exposta a idéia de que a literatura especializada em arquitetura, tanto livros como revistas, foi uma fonte de informação, instrução , educação e mesmo inspiração para os autores, engenheiros e arquitetos, que fizeram a arquitetura do Paraná nos anos 1950 elaborando para Curitiba projetos arquitetônicos vinculados às idéias modernistas tais como eram praticadas em centros mais avançados. Apresenta também a literatura disponível na época, resgatada dos acervos remanescentes em bibliotecas públicas e particulares, procurando estabelecer um vínculo entre as obras locais e as divulgadas em revistas e livros. Apresenta ainda três destes autores, pessoalmente entrevistados, demonstrando através de suas obras e opiniões a comprovação da idéia sugerida no trabalho. São eles: Rubens Meister, engenheiro civil, autor do projeto do Teatro Guaíra; Romeu Paulo da Costa, engenheiro civil, autor da Biblioteca Pública do Paraná e Elgson Ribeiro Gomes, arquiteto diplomado depois de completar o curso de engenharia civil, autor de inúmeros edifícios residenciais e comerciais com caracter modernista. A dissertação é completada com a demonstração da idéia inicial através de uma análise comparativa entre obras da cidade e obras publicadas que apresentam caráter de similaridade pelo pensamento arquitetônico adotado.
Resumo:
No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.
Resumo:
Este texto apresenta um novo modelo multiparadigma orientado ao desenvolvimento de software distribuído, denominado Holoparadigma. O Holoparadigma possui uma semântica simples e distribuída. Sendo assim, estimula a modelagem subliminar da distribuição e sua exploração automática. A proposta é baseada em estudos relacionados com modelos multiparadigma, arquitetura de software, sistemas blackboard, sistemas distribuídos, mobilidade e grupos. Inicialmente, o texto descreve o modelo. Logo após, é apresentada a Hololinguagem, uma linguagem de programação que implementa os conceitos propostos pelo Holoparadigma. A linguagem integra os paradigmas em lógica, imperativo e orientado a objetos. Além disso, utiliza um modelo de coordenação que suporta invocações implícitas (blackboard) e explícitas (mensagens). A Hololinguagem suporta ainda, concorrência, modularidade, mobilidade e encapsulamento de blackboards em tipos abstratos de dados. Finalmente, o texto descreve a implementação da Holoplataforma, ou seja, uma plataforma de desenvolvimento e execução para a Hololinguagem. A Holoplataforma é composta de três partes: uma ferramenta de conversão de programas da Hololinguagem para Java (ferramenta HoloJava), um ambiente de desenvolvimento integrado (ambiente HoloEnv) e um plataforma de execução distribuída (plataforma DHolo).
Resumo:
O presente trabalho insere-se no contexto das pesquisas realizadas no Laboratório de Computação & Música do Instituto de Informática da UFRGS. Com ele pretendemos fundamentar e investigar possibilidades em educação musical através da World Wide Web (WWW ou, simplesmente, Web). Para isso, em um primeiro momento, investigamos como desenvolver adequadamente sistemas educativo-musicais para a Web. Queremos aproveitar uma das principais vantagens que a Web oferece para a educação: a de facilitar a disponibilização e o acesso ao conteúdo educativo. Especificamente nesta área do conhecimento - Música -, é rara a pesquisa visando utilizar a Web como suporte. A Internet continua impondo sérias limitações ao emprego de multimídia e ainda mais quando seus dados representam informações sonoras e musicais. Devido a isso, os poucos estudos existentes optam ou por uma simplificação exagerada do sistema ou por soluções proprietárias muito complicadas, que podem reduzir a facilidade de acesso do público-alvo. Assim, no presente trabalho procuramos encontrar um meio-termo: uma solução de compromisso entre a funcionalidade que se espera de tais sistemas, a sua operacionalidade e a simplicidade que a Internet ainda impõe. Para atingir esse objetivo, nos concentramos em promover a interatividade entre o aluno e um ambiente de aprendizado distribuído para o domínio musical. Buscamos fundamentar essa interatividade a partir de: a) conceitos pertinentes a uma interação de boa qualidade para propósitos de ensino/aprendizagem; e b) adoção de tecnologias da Web para música que permitam a implementação adequada desses conceitos. Portanto este trabalho é eminentemente interdisciplinar, envolvendo principalmente estudos das áreas de Interação Humano-Computador, Educação Musical e Multimídia. Após essa fase inicial de fundamentação, investigamos uma solução possível para esse problema na forma de um protótipo de um sistema educativo-musical na Web, tendo em vista os seguintes requisitos: · Ser fácil de programar, mas suficiente para satisfazer os requisitos de sistemas musicais. · Ser acessível, útil e usável pelos seus usuários (notadamente alunos e educadores musicais). Esse protótipo - INTERVALOS, que visa auxiliar o ensino/aprendizagem da teoria de intervalos, arpejos e escalas musicais - é uma ferramenta que pode ser integrada a um ambiente mais completo de educação musical na Web, incluindo as demais tecnologias da Internet necessárias para implementar Ensino a Distancia de música nesse meio. INTERVALOS foi submetido a avaliações de usabilidade e avaliações pedagógicas, por meio das quais pretendemos validar o grau de adequação da fundamentação teórica (conceitos) e tecnológica (tecnologias) para educação musical baseada na Web.
Resumo:
o objetivodeste trabalho é identificaros procedimentosadotados para a arquitetura do Ecletismo.São investigados os conceitos e os fundamentos culturais dessa linguagemarquitetõnicaque encontrou ampla ressonância em termos geográficos e temporais. Na primeiraparte estuda-se a origemdo espírito eclético moderno na arquitetura a partir do Iluminismo.É montado um panorama da arquitetura do século XVIIIe iníciodo século XIXna ótica da investigaçãodo espírito eclético na arquitetura do historicismoclássico,do historicismogótico, do pitoresco e da arquitetura revolucionária. A segunda parte do trabalho consiste numa revisão bibliográficasobre o Ecletismo na arquitetura do séculoXIXe uma análise de seus procedimentos.São estudadas as mudanças no pensamento arquitetõnicono iníciodo século XIXe o conceitode historicismo,a filosofiado Ecletismoe a escola do Ecletismo.Emseguida serão analisados os procedimentosalusivosà referênciahistórica,à composiçãocomo método, ao racionalismoe ao ecletismotécnico,finalizandocoma questão da críticae dos debates de arquitetura.
Resumo:
Este trabalho estuda a aplicação parcial do modelo de excelência em prestação de serviços proposto por SILVA (1997) no núcleo de engenharia e arquitetura do Banco do Brasil S.A. em Porto Alegre (NUCEN Porto Alegre). O foco do estudo é o bloco “Ouvindo clientes, especialistas e planos” do modelo relatado, especialmente o tópico “Ouvindo clientes”. Para tanto, foi realizada uma pesquisa junto aos clientes do NUCEN Porto Alegre (todas as agências, órgãos regionais e postos de atendimento avançado do Banco do Brasil S.A. no estado do Rio Grande do Sul). Os resultados da pesquisa foram analisados por atributo (total de 27), que depois foram agrupados entre 9 critérios competitivos (acesso, atendimento/atmosfera, velocidade do atendimento, tangíveis, flexibilidade, preço/custo, competência, consistência e credibilidade/segurança). Posteriormente, os resultados foram analisados por região geográfica de atendimento (A, B, C, D, E, F, G e H) e, finalmente, por categoria das dependências (agências de níveis 1, 2, 3 e 4, além de órgãos regionais/postos de atendimento avançado), obtendo-se a indicação de esforços de melhoria nos seguintes pontos • Em relação aos 27 atributos da pesquisa: velocidade de atendimento para serviços de manutenção de ar condicionado (atributo 8); velocidade de atendimento para serviços de manutenção de porta giratória (atributo 9); custo das obras de reformas e serviços de conservação predial (atributo 19); recuperação de falhas quando há reclamação por serviços não prestados adequadamente (atributo 18); qualificação, conhecimento e experiência dos profissionais das empresas contratadas (atributo 25); custo para manutenção de porta giratória (atributo 21); e custo para manutenção de ar condicionado (atributo 20); • Em relação aos atributos da pesquisa agrupados entre os 9 critérios competitivos: custo e velocidade de atendimento; • Em relação às 8 regiões de atendimento: atendimento às dependências da região A; e • Em relação às 5 categorias das dependências: atendimento às agências de níveis 1 e 2. Com base nos resultados obtidos na pesquisa, o autor propõe diversas ações de melhoria de desempenho para implementação no NUCEN Porto Alegre (RS).
Resumo:
O objetivo dessa dissertação foi estudar o trabalho das unidades operacionais da Empresa Brasileira de Correios e Telégrafos(ECT), identificar os problemas de ordem ergonômica e propor recomendações que minimizem seus efeitos negativos sobre a saúde dos trabalhadores. Foram coletados, sintetizados e discutidos, com os empregados, os dados sobre o trabalho das unidades operacionais, possibilitando a disseminação dos conceitos de ergonomia dentro da organização e o lançamento dos meios para a criação de uma cultura ergonãmica dentro da ECT.
Resumo:
A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.
Resumo:
Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.
Resumo:
Dois experimentos foram conduzidos com o objetivo de avaliar o desempenho de duas linhagens de frangos de corte (Hybro G e Hybro PG) em duas estações climáticas (verão e inverno), alimentados com dietas formuladas pelo conceito Proteína Bruta (PB) ou Proteína Ideal (PI), de 1 a 42 dias de idade em ambos os sexos. Também foram avaliados os dados de abate, composição da carcaça e análise econômica comparativa entre os dois conceitos. O delineamento utilizado foi um fatorial 2 x 2, com 6 repetições de 20 aves cada. Na análise estatística dos resultados, verificou-se que, nas duas estações climáticas os machos PB consumiram mais que os PI; entre as fêmeas não houve diferença significativa para consumo. No verão as fêmeas PI ganharam mais peso corporal que as PB, para machos não houve diferença no ganho de peso; no inverno machos e fêmeas do PI ganharam mais peso que as aves do conceito PB e, quanto às linhagens, a PG foi superior a G. A conversão alimentar foi melhor para machos do que para fêmeas, principalmente no verão. Para o rendimento de peito as aves PI, a linhagem PG e as fêmeas mostraram-se superiores ao grupo PB, linhagem G e aos machos. A percentagem de gordura abdominal foi maior para fêmeas e para as aves PB. O aminograma evidenciou uma maior quantidade de Met, Lis, M+C e Tre no verão e M+C no inverno, nas carcaças dos machos PI. Na análise econômica dos dois experimentos foi observado que é mais viável a formulação de dietas pelo conceito proteína ideal, e formuladas segundo o respectivo sexo.