162 resultados para Jabuticaba - Processamento
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
Este estudo de caso exploratório propõe um esquema explicativo sistêmico para entendimento da relação da organização com seu ambiente. Nesta visão sistêmica, apresenta o produto como uma resposta da empresa aos estímulos recebidos do meio ambiente. Com essa perspectiva, ressalta a importância da troca e do processamento de informações entre a engenharia e a área comercial como pré-requisito para o desenvolvimento de novos produtos. O caso relatado, uma indústria do setor eletroeletrônico, permite uma melhor compreensão dos fatores que influenciam a comunicação entre os departamentos com funções de comercialização e desenvolvimento de produtos.
Resumo:
O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.
Resumo:
O objetivo do presente trabalho é o estudo do comportamento, em termos de freqüências naturais de estruturas de torres estaiadas, para diversas situações de serviço. Para isso criou-se uma formulação para a determinação dessas freqüências, utilizando o método da matriz de transferência. O procedimento consiste na discretização da estrutura em elementos de barras, massas discretas, molas e amortecedores viscosos, para a representação da estrutura. Com relação aos cabos da torre estaiada, desenvolveu-se uma expressão que nos fornece a rigidez completa dos mesmos, apoiados nos extremos, com amortecimento viscoso e as propriedades físicas e geométricas uniformes. Além disso, os cabos podem ser inclinados e sujeitos à excitação horizontal harmônica no apoio superior. Nesse caso, considera-se uma deformada parabólica do cabo na posição de equilíbrio estático, e por outro lado, os deslocamentos dinâmicos são considerados pequenos. A rigidez do cabo é válida para um ângulo de inclinação que varia de zero (0) a noventa (90) graus. Esse método é aplicável a microcomputadores devido a pouca memória empregada no processamento de dados. Com esse intuito, foi elaborado um programa para microcomputadores de 16 bits, que possibilita o estudo da estrutura da torre sobre o efeito de flexão pura, torção pura ou acoplamento de ambos. Exemplos numéricos de torres estaiadas e do comportamento da rigidez de cabos foram desenvolvidos para as mais diversas situações de cálculo.
Resumo:
Atualmente os sistemas computacionais mais sofisticados são aqueles que apresentam imagens gráficas. Devido às características de alta velocidade de processamento e excelente resultado na geração de imagens o uso da Computação Gráfica se dá em diversas áreas como a indústria, pesquisa, publicidade, entretenimento, medicina, treinamento, dentre outras. Este trabalho aborda dois assuntos clássicos na Computação Gráfica, Geometria Sólida Construtiva (CSG) e Sombras Projetadas. Ambos são muito importantes para esta linha de pesquisa da Ciência da Computação. A Geometria Sólida Construtiva é utilizada na modelagem de objetos e as sombras projetadas são necessárias para aumentar o realismo das imagens. Geometria sólida construtiva (CSG) é uma técnica para a modelagem de sólidos, que define sólidos complexos pela composição de sólidos simples (primitivas). Isso inclui também a composição de objetos já combinados, até que se chegue a um objeto mais complexo. Um fator muito importante e necessário na obtenção de imagens realistas e que deve ser considerado é a utilização de sombras, pois estas são eficazes no realismo e impressão espacial de objetos tridimensionais. As sombras estabelecem diversos níveis de profundidade na imagem, fazem uma pontuação geométrica na cena de modo a evitar que os objetos não pareçam estar flutuando no ar. Este trabalho consiste em apresentar uma proposta para a geração de sombras em objetos modelados pela Geometria Sólida Construtiva. Para tanto foram estudados os assuntos referentes à modelagem de objetos por CSG, algoritmos para a geração de sombras “bem delimitadas” e formas de gerar sombras na Geometria Sólida Construtiva. O processo de geração de sombras em cenas modeladas por CSG, através da aplicação das mesmas operações booleanas envolvidas na modelagem dos objetos, sobre as sombras nem sempre apresenta resultados corretos. Diante disso, foram investigadas outras formas de solucionar o problema. Dentre estas, uma alternativa é a realização de transformações na árvore binária CSG, através de outras operações, envolvendo o uso de complemento com operações de união e interseção, para a modelagem do objeto e geração da sombra correspondente. Com base nos estudos realizados foram implementados dois protótipos que exibem a sombra projetada de objetos modelados por CSG. Na implementação do protótipo A utilizaram-se as técnicas tradicionais de modelagem de sólidos e sombra projetada. Os resultados obtidos com este protótipo serviram de referência. No protótipo B os resultados foram obtidos através da aplicação da zona ativa das primitivas na modelagem dos objetos e a sombra é projetada durante o processo de avaliação de contornos do sólido. Os resultados obtidos com este protótipo são comparados com os resultados do protótipo A e são apresentados como forma de exibir a aplicação do método proposto.
Resumo:
Este trabalho discorre no escopo de informática médica, no âmbito da Unidade de Cardiologia Fetal do Instituto de Cardiologia - Fundação Universitária de Cardiologia do RS. Sabe-se que a medicina gera um grande volume de dados, sejam eles, textuais, numéricos, gráficos ou mesmo imagens ou sons geradas por equipamentos de ultra-som, tomógrafos computadorizados, ressonância magnética, RX, entre outros. Este trabalho desenvolve a integração das imagens ecocardiográficas fetais ao banco de dados. Atualmente, a tendência observada no desenvolvimento de sistemas de informações é a utilização de banco de dados que sejam capazes de manipular informações completas sobre seus pacientes, tais como: consultas, medicamentos, internações, bem como os laudos de exames com suas respectivas imagens quando estes possuírem. É com base nestas tendências que foram definidos os tópicos relevantes a serem estudados e implementados neste trabalho, integrando os estudos ecocardiográficos fetais com as informações do banco de dados da unidade de cardiologia fetal (UCF). Neste trabalho está apresentado o modelo do banco de dados da UCF. Para esta modelagem foram realizados estudos para aquisição de conhecimento da área e também para compreender as necessidades da unidade Da mesma forma, as imagens ecocardiográficas fetais foram estudadas para que fosse possível serem modeladas junto ao banco de dados. Para esta modelagem foi necessário fazer uma breve revisão dos conceitos utilizados pelo paradigma de orientação a objetos, uma vez que o modelo foi desenvolvido utilizando esta metodologia. As imagens ecocardiográficas fetais receberam grande atenção, uma vez que para elas foram criadas classes distintas. Também para aumentar a funcionalidade foram estudados conceitos de imagem digital, para posterior aplicação sobre as imagens do domínio. Foram realizados estudos sob manipulação de imagens, como modificação do brilho, medidas, filtros e formas de armazenamento. Considerando os formatos de gravação, dois padrões foram contemplados neste trabalho: o utilizado pela placa disponível no instituto denominado DT-IRIS e o DICOM que é um padrão internacional de armazenamento e comunicação de imagens médicas. Por fim, a implementação do protótipo procura demonstrar a viabilidade do modelo proposto, disponibilizando dados textuais, imagens e ainda realizando manipulações sobre estas imagens do domínio.
Resumo:
A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.
Resumo:
As técnicas de sensoriarnento remoto e geoprocessamento são fundamentais para processamento e integração de dados de mapeamento geológico/geotécnico, principalmente estudos de gerenciamento e planejamento. A área estudada compreende o município de Três Cachoeiras. Litoral Norte do Rio Grande do Sul o qual inclui-se na "Reserva da Biosfera da Mata Atlântica". O município tem st: deparado com problemas de localização de sitios adequados à disposição final dos resíduos sólidos. bem como o assentamento de loteamentos residenciais e industriais, localização de jazidas de extração de material para construção, fontes de abastecimento de água e necessidade de criação de áreas de preservação ambiental. O objetivo deste trabalho foi produzir mapeamentos da área em questão, através da pesquisa geológico-geotécnica desenvolvida com emprego de imagens de satélite e fotografias aéreas, em que as informações foram cruzadas no SIG. Baseado nisto, investigaram-se os aspectos acima mencionados. a partir de uma contribuição geológico/geotécnica ao município, incluindo-se levantamento de campo, fotointerpretação, processamento e classificação de imagens do município de Três Cachoeiras, sendo os dados integrados num sistema de geoprocessamento. Utilizando-se cartas planialtimétricas, fotografias aéreas e imagem de satélite LANDSAT TM5. foram criados planos de informação como o limite da área estudada, a estrutura viária municipal, a delimitação de reservas ecológicas baseadas na legislação ambiental vigente e, por meio do modelo numérico do terreno, a carta de declividade. A fotointerpretação gerou planos de rede de drenagem, litológica. morfoestruturas e formações superficiais. Os dados de campo. sobrepostos às litológicas obtidas por fotointerpretação, produziram a carta litológica. No tratamento das imagem, foram gerados produtos com contraste, operações entre bandas, filtragens e análise de componentes principais, os quais contribuíram parira classificação da imagem e resultando nos planos de rochas/solos e cobertura/uso do solo (carta de uso atual do solo). O cruzamento destas informações permitiu a obtenção da carta de formações superficiais, lidrogeológica que, juntamente com as cartas litológica, declividades e uso atual do solo distribuíram os atributos do meio físico em planos elaborados por novos cruzamentos, que satisfazem o objetivo do estudo, sendo estes planos o produto final, ou seja, cartas de recomendação: a extração de materiais para construção civil; a implantação de obras de infraestrutura; a disposição de resíduos sólidos e loteamentos; geotécnica à agricultura; à implantação de áreas destinadas à preservação ambienta1 e recuperação.
Resumo:
Este trabalho defende de que a idéia que critérios lingüísticos e pragmáticos contribuem para o reconhecimento da especificidade do termo jurídico. Desse modo, parte do princípio que a identificação de uma terminologia está vinculada ao reconhecimento da natureza e dos propósitos daqueles que a utilizam em uma dada área de conhecimento, o que, na área jurídica, se torna evidente na expressão da normatividade da lei. A pesquisa utiliza como referencial teórico as concepções de base da Teoria Comunicativa da Terminologia, da Teoria dos Atos de Fala, aportes da Teoria Semiótica do Texto no âmbito jurídico, bem como fundamentos gerais da ciência jurídica. O corpus de estudo, a partir do qual se demonstra a validade da idéia defendida, é formado por textos legislativos. A Constituição Brasileira de 1988 foi escolhida como campo preferencial de pesquisa e é examinado como objeto da comunicação que se estabelece entre o destinador e o destinatário no âmbito do universo sócio-cultural da área jurídica. Descrevem-se os mecanismos que tecem a rede modal que estrutura esse tipo de texto, considerando-se que a enunciação da norma constitucional configura um ato de fala jurídico. Esse ato de fala é analisado na manifestação de normas de três categorias: programáticas, de atribuição de poder e competência e de conduta, destacando-se o caráter performativo dos verbos que expressam tais normas. Após a identificação do padrão morfossintático e semântico que caracteriza a sua estrutura frasal, analisam-se os elementos que vinculam o verbo, seu sujeito e complementos aos propósitos da área temática, com destaque para sua implicação pragmática. Conforme a pesquisa demonstra, tais propósitos imprimem o caráter de imperatividade àquilo que é comunicado, conferindo especificidade às unidades lexicais que integram a estrutura frasal dos verbos focalizados. Conclui-se que o verbo performativo é fator primordial no processo de atualização da especificidade dos termos na linguagem jurídica, bem como se demonstra que alguns dos verbos analisados se constituem em genuínos candidatos a termo jurídico. Finalizando a investigação, são indicados parâmetros para a marcação de elementos lingüísticos, tanto morfossintáticos como semânticos e de natureza pragmática, para o processamento informatizado da linguagem usada no Direito.
Resumo:
Este estudo tem como objetivo analisar os efeitos das políticas públicas pesqueiras sobre a evolução da atividade pesqueira no estado do Rio Grande do Sul, no período de 1960 a 1997. Para tanto é feita uma caracterização das políticas públicas de promoção à atividade pesqueira, atuantes no estado do Rio Grande do sul, analisando-as dentro do contexto nacional. Constata-se que na década de sessenta a criação da Superintendência para o Desenvolvimento da Pesca (SUDEPE), e o surgimento das políticas de promoção de incentivo fiscal e crédito rural, foram o marco inicial para o desenvolvimento da atividade pesqueira o que resultou na ampliação da produção estadual do pescado de origem marítima e do parque industrial processador do pescado . As demais políticas de promoção à atividade pesqueira, as quais surgiram recentemente são os desembolsos de crédito do Banco Nacional de Desenvolvimento Econômico e Social (BNDES), que se efetivaram na década de noventa; o crédito do Fundo Estadual de Apoio ao Pequeno Estabelecimento Rural (FEAPER), que iniciou em 1988; e o crédito do Programa Nacional de Fortalecimento à Agricultora Familiar (PRONAF), que iniciou em 1995 Finalmente, são avaliados os impactos das políticas públicas de promoção á atividade pesqueira sobre o segmento industrial, o valor da produção e a geração de emprego na atividade pesqueira do Rio Grande do Sul. Verifica-se que durante o final da década de sessenta e início da década de setenta, houve concentração dos recursos de incentivo fiscal, e em toda a década de setenta houve concentração de crédito do SNCR para investimento e para comercialização e alto volume de crédito para custeio. Neste período, também, houve o surgimento da indústria de transformação do pescado, crescimento do valor da produção industrial, do valor da produção pesqueira, do número de empregos na atividade de processamento do pescado. A partir da década de oitenta, a taxa de crescimento dessas variáveis declinou ou se tornou negativa caracterizando o começo da crise da atividade pesqueira. Esta crise deve-se a sobrepesca de algumas espécies de pescado, o que resultou na diminuição da produção artesanal e industrial do pescado. Por sua vez, esta diminuição foi desenvolvida indiretamente pelas próprias políticas de promoção à atividade pesqueira (incentivo fiscal e crédito rural) , que estiveram preocupadas com o maior volume de desembarque do pescado, para atender a crescente industrialização, mas sem a preocupação necessária com o estoque natural O surgimento a partir de 1985 de crédito do SNCR para a piscicultura e as políticas recentes de promoção á atividade pesqueira, por beneficiarem os pescadores artesanais e os piscicultores, são prova de alguma preocupação com a situação atual da pesca extrativa, ao contrário das políticas de crédito do SNCR e incentivo fiscal que beneficiaram mais a pesca industrial, desenvolvendo o parque industrial e gerando necessidade de matéria-prima acima da capacidade de reposição da natureza. Porém, existe ainda a falta de: políticas que objetivem o melhor aproveitamento dos recursos naturais; fiscalização da atividade pesqueira; investimentos em pesquisa; melhoria das indústrias pesqueiras para que estas fiquem mais competitivas.
Resumo:
Audio coding is used to compress digital audio signals, thereby reducing the amount of bits needed to transmit or to store an audio signal. This is useful when network bandwidth or storage capacity is very limited. Audio compression algorithms are based on an encoding and decoding process. In the encoding step, the uncompressed audio signal is transformed into a coded representation, thereby compressing the audio signal. Thereafter, the coded audio signal eventually needs to be restored (e.g. for playing back) through decoding of the coded audio signal. The decoder receives the bitstream and reconverts it into an uncompressed signal. ISO-MPEG is a standard for high-quality, low bit-rate video and audio coding. The audio part of the standard is composed by algorithms for high-quality low-bit-rate audio coding, i.e. algorithms that reduce the original bit-rate, while guaranteeing high quality of the audio signal. The audio coding algorithms consists of MPEG-1 (with three different layers), MPEG-2, MPEG-2 AAC, and MPEG-4. This work presents a study of the MPEG-4 AAC audio coding algorithm. Besides, it presents the implementation of the AAC algorithm on different platforms, and comparisons among implementations. The implementations are in C language, in Assembly of Intel Pentium, in C-language using DSP processor, and in HDL. Since each implementation has its own application niche, each one is valid as a final solution. Moreover, another purpose of this work is the comparison among these implementations, considering estimated costs, execution time, and advantages and disadvantages of each one.
Resumo:
Replicação de objetos é usada para garantir uma maior disponibilidade de recursos em um sistema distribuído. Porém, com a replicação, surgem problemas como o controle da consistência das réplicas e onde estas réplicas devem estar posicionadas. A consistência é garantida por um protocolo de consistência de réplicas. Para facilitar a implementação dos protocolos de controle de réplicas, pode-se utilizar mecanismos de comunicação de grupo como suporte para a replicação. Outro problema importante que surge com a replicação é o posicionamento das réplicas. A carga de processamento em um sistema distribuído muda continuamente e num determinado instante pode ser necessário mudar a distribuição atual das réplicas pela adição de novas réplicas, remoção de réplicas desnecessárias ou pela mudança de posicionamento das réplicas. Um sistema de gerenciamento de réplicas pode realizar esta tarefa. Este trabalho apresenta o sistema RPM – Replica Placement Manager – responsável por fornecer ao serviço de gerenciamento de réplicas uma lista ordenada de nodos potencialmente ideais, num determinado momento do processamento, para receber uma réplica de um objeto. Esta lista é criada pelo RPM, considerando um pequeno conjunto de variáveis estáticas e dinâmicas, facilmente obtidas nos nodos do sistema distribuído.
Resumo:
o presente trabalho tem como propósito validar o projeto piloto, cujo objetivo é modificar uma realidade existente no método de descarte dos resíduos sólidos gerados na CEASA-POA, objetivando diminuir o desperdício de alimentos e reduzir a poluição ambiental, - - em sua maioria são resíduos de alta qualidade. No modelo atual os resíduos sólidos de hortiftutigranjeiros da CEASA-POA, são quase que integralmente descartados no aterro sanitário, mas que podem e devem ser reprocessados, via novo ciclo produtivo. Em pesquisa realizada, encontramos outros dois tipos de atividades. desenvolvidas, nas demais CEASAS existentes no país, inclusive na CEASA-POA. O reaproveitamento dos resíduos em condições para consumo humano, com a existência de um banco de alimentos, onde os atacadistas doam produtos que não estão em boas condições para venda, por motivos diversos, mas em condições para alimentação humana em Curitiba-PR esta doação sofre um processo de industrialização, resultando na fabricação de uma sopa enlatada, distribuida a entidades assistenciais Existe também, o descarte seletivo dos resíduos para produção de adubo composto orgânico. A partir deste trabalho, apresenta-se uma terceira alternativa, que é o processamento dos resíduos sólidos gerados na CEASA - Porto Alegre-RS, em uma planta piloto, com a finalidade de obter-se um complemento para ser ofertado na alimentação de anlinais. Através de um estudo prévio com o mapeamento de toda a CEASA, consistindo na localização, quantificação e qualificação de todos os resíduos sólidos gerados na CEASA. Os valores obtidos foram ao longo de quatro meses, com a geração média de 30 toneladas de resíduos hortiftutigranjeiros por dia. De posse das informações levantadas, foi proposto este presente projeto piloto, em beneficiar uma pequena parte destes resíduos. O método utilizado para obtenção da ração, foi o processo de desidratação via evaporação térmica, obtendo-se um complemento alimentar, com teor de proteína brota média na ordem de 10,3%, excelente aceitação pelos bovinos e suínos. Assim, espera-se que este projeto piloto, proposto, elaborado e executado com sucesso, justifique a implementação de equipamentos de grande porte, com capacidade de processar o total do descarte, em escala industrial Podendo ser reproduzido nas demais CEASAS de nosso Estado e Pais, evitandose assim o desperdício de alimentos, e aumento do tempo de vida útil dos aterros sanitários com maior preservação do meio ambiente.
Resumo:
O presente trabalho, através da interdisciplinaridade entre Sistemas de Informação e Marketing, foi desenvolvido com o objetivo de fornecer uma avaliação do grau de satisfação do cliente bancário, pessoa-física, com a utilização das tecnologias de informática e telecomunicações na realização dos serviços bancários, na cidade de Porto Alegre. Foram consideradas como tecnologias da informação os terminais de autoatendimento, Automated Teller Machines (ATMs) para saques e depósitos, cash-dispenser, terminais de depósitos, terminais de extratos e saldos e dispensadores de cheques, localizados em agências, ante-salas de agências, quiosques em locais públicos e em postos de atendimento, e centrais telefônicas com atendimento humano e URA (Unidade de Resposta Audível). O método seguido foi o proposto por ROSSI & SLONGO (1998), com duas etapas distintas, uma exploratória e a outra descritiva. Os indicadores de satisfação foram selecionados através de levantamento de dados secundários. A pesquisa foi realizada nos meses de julho e agosto 2000, nas salas de auto-serviço do Banco do Brasil. Os clientes entrevistados deveriam estar familiarizados com os serviços telefônicos da empresa pesquisada e terem realizado alguma transação nos terminais de autoatendimento. Para as análises da pesquisa, foram considerados fatores sobre postos de auto-atendimento, processamento de transações, comunicação com clientes, segurança, atendimento nas centrais telefônicas e erros relacionados a computadores. Concluiu-se que o Banco do Brasil está muito bem posicionado quanto à satisfação de seus clientes no que se refere às centrais telefônicas e auto-atendimento, ao seu site Internet Banking e à empresa como um todo. Todos com uma satisfação próxima ao nível máximo. Através de técnicas estatísticas, identificou-se que o indicador que trata de “pagamentos de contas, taxas e tributos nos terminais de auto-atendimento” recebeu o maior índice de satisfação, assim como o fator comunicação com clientes; e o indicador “agilidade na solução e problemas registrados nas centrais telefônicas” recebeu o maior índice de importância, assim como o fator postos de auto-atendimento. Assim, analisou-se, definiu-se e realizouse um modelo para avaliação da satisfação do cliente com as tecnologias da informação.