884 resultados para algoritmos de agrupamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sob a influência de instrumentos analíticos pós-estrututalistas, especificamente de abordagens associadas a Michel Foucault, bem como de dimensões dos Estudos Culturais e da etnografia, o trabalho aborda a caracterização da população presente nas escolas municipais de POA face às Políticas de Inclusão adotadas, agrupada prioritariamente nas Turmas de Progressão – agrupamento provisório de estudantes aos quais se atribuem defasagens entre a idade cronológica e o nível de conhecimentos – adotadas no Projeto Escola Cidadã: Ciclos de Formação. Os integrantes dessas turmas eram, na situação estudada, crianças e jovens pobres, multirepetentes, alguns com déficts orgânicos e ou psicológicos, muitos com carências materiais e afetivas graves, na maioria das vezes negros, sendo muitos deles oriundos de Classes Especiais. Havia também entre eles/as internos/as da antiga FEBEM, meninos/as de rua e na rua – em suma eram sujeitos que poderiam incluir-se na categoria dos “anormais” discutida por Foucault (1997) e/ou dos “estranhos” tal como foi nomeada por Bauman (1998). Analisam-se, também, na tese instrumentos usados nas práticas pedagógicas - as fichas da secretaria, os relatórios de avaliação, os dossiês – que atuam na constituição e disciplinamento desses sujeitos/alunos e também de suas professoras. A percepção de que é preciso dar aula para quem não sabe ainda ser aluno e aluna e da negação do papel produtivo da pedagogia neste processo de constituição, sujeição e disciplinamento emerge das discussões conduzidas a partir de constatações feitas relativamente aos grupos estudados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo preocupa-se em apontar as principais transformações da estrutura produtiva agropecuária do Estado do Rio Grande do Sul e identificar a associação entre as atividades agropecuárias e a pobreza rural. A área de estudo compreende sete mesorregiões homogêneas do Estado e seus 427 municípios1. O período estudado corresponde os anos de 1940 a 1995/96. Através da análise descritiva foi realizado um retrospecto das principais transformações da estrutura produtiva agrícola no Rio Grande do Sul, além da caracterização da evolução das variáveis estrutura fundiária, mão-de-obra utilizada e uso de tratores ao longo das últimas décadas. A existência de uma provável associação entre atividades agropecuárias e indicadores sócio-econômicos dos municípios gaúchos foi investigada com o uso da Análise de Agrupamento (Cluster Analysis) e do coeficiente de concordância Kappa. Verificou-se a existência de um grau de associação moderado no relacionamento das duas classificações, o que confirma a hipótese inicial de que as atividades agropecuárias praticadas pelos municípios gaúchos estão relacionadas com sua situação de pobreza. Os resultados obtidos foram comparados à classificação existente em estudo de Schneider e Waquil (2001). A partir dos resultados constata-se que a maior parte dos municípios considerados mais pobres e mais rurais localizam-se em áreas onde há predomínio no cultivo de grãos. Indica-se a importância de instrumentos de ação e políticas que assegurem uma melhor qualidade de vida à população rural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O fantástico incremento do turismo nas últimas décadas, hoje uma das maiores atividades econômicas do mundo, tem despertado o interesse do seu estudo tanto em nível teórico, nas chamadas Ciências Sociais, como nas Ciências Aplicadas, entre elas, o marketing. E em virtude da importância desse fenômeno e com o objetivo de identificar as oportunidades turísticas da região missioneira, em seus aspectos de potencialização e motivação, de forma a encontrar um novo instrumento de desenvolvimento, optou-se por este trabalho. Para isso, o estudo começou por caracterizar sócio-economicamente a região (Missões) onde se localizam as Ruínas Jesuíticas e teve por objetivo identificar as potencialidades e as motivações para este turismo regional porque é uma região de atratividade turística. Por se tratar de uma investigação de natureza exploratória, iniciou-se com uma pesquisa qualitativa através de estudos bibliográficos e entrevistas em profundidade com especialistas em turismo. Posteriormente, tendo como base esse resultado, partiu-se para a fase quantitativa, aprofundando-se, o conhecimento iniciado anteriormente, cuja etapa foi divida em duas partes: partes: a primeira contém três dimensões medindo os atrativos histórico-culturais, lazer e entretenimento; e serviços de infra-estrutura e apoio para o desenvolvimento turístico regional. A segunda medindo fatores motivacionais e onze questões caracterizando os respondentes da pesquisa. As dimensões foram avaliadas através de uma escala de concordância de 5 pontos que variou de 1 “discordo totalmente” a 5 “ concordo totalmente” . Para as análises das dimensões, foram utilizadas os seguintes estudos estatísticos: frequência simples, média, teste de Cronbach, análise fatorial e análise de covariância. Utilizando-se dessas ferramentas estatísticas, procurou-se identificar os fatores de desenvolvimento turístico existentes ou que possam vir a ser potencializados, dentre os quais se destacaram a organização do museu, a arquitetura jesuítico-guaranítica e a divulgação da civilização guarani, no agrupamento atrativos histórico-culturais. Em relação à recreação do turista, o espetáculo de Som e Luz, histórias pitorescas e passeios ecológicos, no grupo de lazer e entretenimento. E plantão médico, farmácia e postos de gasolina 24 horas, segurança policial e facilidade de acesso rodoviário, em termos de serviços de infra-estrutura e apoio. Na dimensão que mediu os fatores de motivação para visitar as Missões, se sobressaíram-se, o desejo de conhecer a história da região missioneira, o conhecimento do Patrimônio Histórico da Humanidade do Rio Grande do Sul, o conhecimento da civilização guarani e possibilidade de contato com a cultura missioneira, os quais têm vínculo com os atributos histórico-culturais. Por outro lado, o fator motivador relacionado a lazer e entretenimento, foi o Espetáculo de Som e Luz. Indentificou-se, também, a possibilidade de crescimento, no sentido de motivação, o turismo místico-religioso que o local oferece. Os resultados demonstraram que o produto turístico “ Ruínas Jesuíticas da Região das Missões “ tem potencial para desenvolver o turismo regional. Os seus atrativos histórico-culturais seriam suas principais atrações, porém as categorias de lazer e entretenimentos aliados aos de infra-estrutura poderão alicerçar melhor os empreendimentos turísticos a serem realizados. Entretanto várias percepções aqui descritas já foram referendadas no levantamento obtido na primeira fase da pesquisa. Por último, são expostas as propostas e caminhos para futuras pesquisas relacionadas ao turismo da Região Missioneira do Rio Grande do Sul, de maneira a contribuir com o crescimento e desenvolvimento regional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objetivo dessa tese consiste em determinar uma solução numéricada equação bidimensional do transporte de nêutrons para elevadas ordens de quadratura angular. Diagonalizando a matriz de transporte LTSN bidimensional , construímos dois algoritmos que se diferenciam pela forma de representar os termos de fuga transversal, que surgem nas equações LTSN integradas transversalmente. Esses termos no método LTSN2D − Diag são expressos como combinação linear dos autovetores multiplicados por exponenciais dos respectivos autovalores. No método LTSN2D − DiagExp os termos de fuga transversal são representados por uma função exponencial com constante de decaimento heuristicamente identificada com parâmetros materiais característicos do meio. A análise epectral desenvolvida permite realizar a diagonalização. Um estudo sobre o condicionamento é feito e também associamos um número de condicionamento ao termo de fuga transversal. Definimos os erros no fluxo aproximado e na fórmula da quadratura, e estabelecemos uma relação entre eles. A convergência ocorre com condições de fronteira e quadratura angular adequadas. Apresentamos os resultados numéricos gerados pelos novos métodos LTSN2D − Diag e LTSN2D − DiagExp para elevadas ordens de quadratura angular para um problema ilustrativo e comparamos com resultados disponíveis na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca analisar e comparar os serviços ao cliente do setor de biscoitos no sul do Brasil. Para realizar este estudo, foi revisado o conceito de orientação para mercado, analisando-se profundamente os serviços ao cliente. Para identificar os serviços ao cliente, entrevistaram-se dez (10) executivos de compras do varejo e, posteriormente, realizou-se uma pesquisa quantitativa com o varejo para avaliar os serviços oferecidos ao cliente por três concorrentes. Os resultados encontrados mostraram trinta (30) serviços ao cliente e treze (13) variáveis que representaram as conseqüências dos serviços. Na análise dos resultados obtidos, avaliaram-se as médias e compararam-se as médias dos três concorrentes através do Teste T, o qual permitiu encontrar a significância estatística da diferença entre as médias. A análise fatorial possibilitou o agrupamento do grande número de variáveis que se relacionavam, resultando na possibilidade de comparar e analisar um conjunto menor de serviços e suas variâncias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A malacofauna límnica exerce importante papel como constituinte da comunidade bentônica e alterações em sua estrutura podem tornar-se prejudiciais para a vida nesses ecossistemas. Com o objetivo de avaliar quali-quantitativamente a malacofauna límnica na área de abrangência da Usina Hidrelétrica de Dona Francisca (UHEDF) (29°26’50’’S e 53°16’50’’W), Agudo, Rio Grande do Sul, Brasil, tomadas as amostras nas fases de pré-enchimento do reservatório em oito estações de coleta em áreas localizadas à montante (E3B, E4B, E5B), à jusante (E1) e na calha central do futuro lago da barragem (E2, E3, E4, E5) e pós-enchimento nas estações E1, E3B e E4B. No período de junho a outubro de 2000 (fase de pré-enchimento) e de junho a outubro de 2001 (fase de pós-enchimento) foram realizadas amostragens mensais, consistindo de três réplicas por estação de coleta (margens-centro), através do uso do amostrador de Surber modificado com área de 60 cm² e 15 cm de altura, delimitando o tamanho amostral. A fauna foi retirada manualmente dos clastos maiores sendo o sedimento de granulometria mais fina, passada através de peneira com malha de 1mm. Em laboratório foi realizada a identificação específica dos moluscos e da fauna acompanhante de macroinvertebrados , quando possível até família. Os organismos foram fixados em álcool 70%. Foram identificadas 10 famílias de Mollusca com quinze espécies. Para Gastropoda foram registradas seis famílias com nove espécies: Ampullariidae – Pomacea canaliculata (Lamarck, 1801); Hydrobiidae – Potamolithus aff. catharinae Pilsbry, 1911, Potamolithus ribeirensis Pilsbry, 1911, Potamolithus sp.1 e Heleobia sp.; Chilinidae – Chilina parva Martens, 1868; Lymnaeidae – Lymnaea columella Say, 1817; Ancylidae – Gundlachia concentrica (Orbigny, 1835); e Physidae – Stenophysa marmorata (Guilding, 1938). Para Bivalvia: Corbiculidae – Corbicula fluminea (Müller, 1774); Mycetopodidae – Anodontites iheringi (Clessin, 1882), Anodontites lucidus (Orbigny, 1835); Hyriidae – Diplodon charruanus (Orbigny, 1835); Sphaeriidae – Pisidium punctiferum (Guppy, 1817) e Pisidium sp. Na fase de pré-enchimento do reservatório, a correlação de Pearson apontou correlação positiva entre a granulometria e a densidade de moluscos (r=0,15) e correlação negativa entre os fatores físico-químicos e a densidade de moluscos bentônicos (r=-0,28). A análise de agrupamento das espécies de moluscos na fase de pré-enchimento evidenciou a formação de dois grupos distintos: o primeiro formado por espécies acidentais, segundo o cálculo da Constância, e o segundo formado por espécies constantes, xviii acessórias e uma acidental (Potamolithus sp.1) que no entanto foi abundante em E1 e E2. O resultado da freqüência relativa em relação à fase de pré-enchimento do reservatório mostrou a família Hydrobiidae, com quatro espécies, com maior abundância e riqueza de espécies, seguida por Chilinidae, representada por C. parva. Ambas as famílias representaram um total de 93,9% em relação à comunidade de moluscos amostrados. Tais resultados refletem o tipo de ambiente da área: leito formado por matacões e calhaus, favoráveis à instalação e manutenção daqueles moluscos. Na fase de pós-enchimento do reservatório foram registrados o aumento na riqueza e diversidade de espécies nas três estações de coleta amostradas (exceto em E3B – com menor diversidade no pós-enchimento) e diminuição significativa nas densidades mensais e totais de moluscos bentônicos. Os testes de aleatorização, entretanto, não revelaram diferenças significativas entre as duas fases e em relação ao funcionamento da UHEDF. Os fatores físico-químicos apontaram correlação positiva com a densidade de moluscos (r=0,19), ressaltando as diferenças significativas nos valores de pH, oxigênio dissolvido, oxigênio saturado nesta fase. Em E1 mais atingida pelo funcionamento da UHEDF, registrou-se uma acentuada diminuição nas densidades mensais e totais de moluscos bentônicos, não obstante, a riqueza e diversidade apresentaram maiores valores nesta fase. As espécies mantiveram-se as mesmas em ambas as fases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.