928 resultados para Retransmissão Automática Híbrida


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, um dos grandes desafios para qualquer desenvolvedor de software é projetar um sistema que reutilize ao máximo elementos de código e de projeto existentes, visando diminuir o tempo e o esforço exigidos na produção do software. Entre as inúmeras formas de possibilitar reuso no contexto do desenvolvimento segundo o paradigma da orientação a objetos, destaca-se a abordagem de frameworks. A grande importância da documentação de software utilizada no processo de desenvolvimento aliada às características de frameworks serviram como motivação para este trabalho. A documentação dentro do processo de desenvolvimento de software não faz parte de uma fase definida, mas ocorre durante toda sua existência, em paralelo com outras fases do ciclo de vida. A abordagem de frameworks dentro deste contexto enfoca o tratamento de templates e definições das características dos artefatos de software (incluindo não somente código mas também produtos de análise, projeto, frameworks, componentes, diagramas, entre outros), facilitando e acelerando o processo de documentação. Um framework, devido a suas características peculiares que serão examinadas e explicitadas no trabalho, contém uma série de informações que podem, além de apoiar a documentação, ser úteis para produção de outros artefatos (por exemplo, planejamentos de teste, scripts de bancos de dados, padrões de codificação, entre outros) do processo de desenvolvimento. Assim, em um processo de desenvolvimento evolutivo, que utiliza a geração de artefatos como recurso, a manutenção pode ser integralmente realizada somente na especificação e não diluída nos artefatos gerados. O objetivo deste trabalho é investigar, propor e desenvolver uma ferramenta de documentação e geração de artefatos de software, denominado FrameworkDoc. O termo documentação de software aqui utilizado se refere a documentação de desenvolvimento de software, incluindo artefatos, arquiteturas, ferramentas entre outros. Serão abordados dois principais aspectos: primeiramente, a geração automática de documentação dentro do processo de desenvolvimento de software e depois a geração de outros artefatos deste processo, a partir das definições de alto nível disponíveis através do framework. Exemplos de aplicações do FrameworkDoc em projetos reais são apresentados. No entanto, os documentos e artefatos de software considerados foram definidos de forma suficientemente genérica para serem aproveitados em outros contextos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem como tema norteador a atualização da discussão ontológica acerca da definição do conceito de representação, a fim de mostrar os caminhos paralelos percorridos pelo gênero literário conto e a arte fotográfica na concepção de suas propostas epistêmicas. Através da busca das especificidades de cada gênero, pretende-se mostrar a natureza híbrida do miniconto e da série fotográfica, tornando possível a observação do pertencimento destas obras aos seus campos e, ao mesmo tempo, de seus elementos de ruptura, além dos diálogos existentes entre as duas. A aproximação se apóia nos conceitos de interdisciplinaridade e hibridez, utilizando como corpus o miniconto Continuidad de los parques, de Julio Cortazar, e a série fotográfica Things are Queer, de Duane Michals, que serão analisados sob o aspecto da temática e da construção temporal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise do sono está baseada na polissonogra a e o sinal de EEG é o mais importante. A necessidade de desenvolver uma análise automática do sono tem dois objetivos básicos: reduzir o tempo gasto na análise visual e explorar novas medidas quantitativas e suas relações com certos tipos de distúrbios do sono. A estrutura do sinal de EEG de sono está relacionada com a chamada microestrutura do sono, que é composta por grafoelementos. Um destes grafoelementos é o fuso de sono (spindles). Foi utilizado um delineamento transversal aplicado a um grupo de indivíduos normais do sexo masculino para testar o desempenho de um conjunto de ferramentas para a detecção automática de fusos. Exploramos a detecção destes fusos de sono através de procura direta, Matching Pursuit e uma rede neural que utiliza como "input"a transformada de Gabor (GT). Em comparação com a análise visual, o método utilizando a transformada de Gabor e redes neurais apresentou uma sensibilidade de 77% e especi cidade de 73%. Já o Matching Pursuit, apesar de mais demorado, se mostrou mais e ciente, apresentando sensibilidade de 81,2% e especi cidade de 85.2%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Avaliar a acurácia da colposcopia utilizando a Classificação Colposcópica Internacional de 2002. Métodos: 3040 pacientes de população geral foram rastreadas para patologia cervical através de exame citopatológico, captura híbrida para HPV de alto risco e inspeção cervical. As colposcopias que resultaram em biópsia (n=468) executadas no rastreamento e acompanhamento destas pacientes foram gravadas, revistas por dois colposcopistas cegados e incluídas para análise. Resultados: Os observadores apresentaram excelente concordância (Kappa=0.843) no relato dos achados pela nova nomenclatura. A colposcopia apresentou sensibilidade de 86% e especificidade de 30.3% em diferenciar colo normal de colo anormal (LSIL, HSIL ou carcinoma); quando a colposcopia objetivava diferenciar colo normal ou LSIL de HSIL ou carcinoma, apresentou sensibilidade de 61.1% e especificidade de 94.4%. Os achados colposcópicos classificados como “maiores” pela nova classificação apresentaram valores preditivos positivos elevados para HSIL. Presença do achado colposcópico na zona de transformação e tamanho da lesão estavam associados a HSIL. Bordas externas definidas, associação de múltiplos achados distintos e presença de zona iodo negativa não estavam relacionados à gravidade das lesões. Conclusão: A colposcopia utilizando a Classificação Internacional de 2002 mostra-se um bom método de rastreamento, mas como método diagnóstico apresenta falhas, não podendo substituir a avaliação histológica. A categorização em achados colposcópicos “maiores” e “menores” apresentada pela nova classificação é adequada. Na realização da colposcopia, é importante também que a lesão seja situada em relação à zona de transformação e que seu tamanho seja indicado, já que estes foram fatores associados a lesões de alto grau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Embora os progressos na área de informática sejam bastante significativos e velozes, na tradução automática há muito ainda o que ser feito. Desde meados dos anos 40 já havia um interesse, em especial pelos americanos e ingleses, numa tradução mais rápida e eficiente de documentos russos, porém até hoje o que se vê em termos de tradução automática está aquém daquilo que se possa chamar de uma boa tradução. Para buscar uma tradução automática eficiente os cientistas têm usado como fonte principal meios estatísticos de solução para tal problema. Esse trabalho visa dar um novo enfoque a tal questão, buscando na ciência cognitiva sua principal fonte de inspiração. O resultado a que se chega com o presente trabalho é que a estatística deve continuar sendo sim uma fonte de auxílio em especial na definição de padrões. Porém, o trabalho trás consigo o propósito de levantar a sobreposição semântica como via de possível solução que possa vir auxiliar, ou, até mesmo trazer maior rapidez a questão da tradução automática. No campo organizacional levanta uma questão interessante, o valor da experiência como meio inteligente de buscar melhores resultados para as empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estratégias para descoberta de recursos permitem a localização automática de dispositivos e serviços em rede, e seu estudo é motivado pelo elevado enriquecimento computacional dos ambientes com os quais interage-se. Essa situação se deve principalmente à popularização de dispositivos pessoais móveis e de infra-estruturas de comunicação baseadas em redes sem-fio. Associado à rede fixa, esse ambiente computacional proporciona um novo paradigma conhecido como computação pervasiva. No escopo de estudo da computação pervasiva, o Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul desenvolve o projeto ISAM. Este engloba frentes de pesquisa que tratam tanto da programação de aplicações pervasivas como também do suporte à execução dessas. Esse suporte é provido pelo middleware EXEHDA, o qual disponibiliza um conjunto de serviços que podem ser utilizados por essas aplicações ou por outros serviços do ambiente de execução. Essa dissertação aborda especificamente o Pervasive Discovery Service (PerDiS), o qual atua como um mecanismo para descoberta de recursos no ambiente pervasivo proporcionado pelo ISAM. A concepção do PerDiS baseou-se na identificação dos principais requisitos de uma solução para descoberta de recursos apropriada para utilização em um cenário de computação pervasiva Resumidamente, os requisitos identificados nessa pesquisa e considerados pelo PerDiS tratam de questões relacionadas aos seguintes aspectos: a) utilização de informações do contexto de execução, b) utilização de estratégias para manutenção automática da consistência, c) expressividade na descrição de recursos e critérios de pesquisa, d) possibilidade de interoperabilidade com outras estratégias de descoberta, e) suporte à descoberta de recursos em larga-escala, e f) utilização de preferências por usuário. A arquitetura PerDiS para descoberta de recursos utiliza em sua concepção outros serviços disponibilizados pelo ambiente de execução do ISAM para atingir seus objetivos, e ao mesmo tempo provê um serviço que também pode ser utilizado por esses. O modelo proposto é validado através da implementação de um protótipo, integrado à plataforma ISAM. Os resultados obtidos mostram que o PerDiS é apropriado para utilização em ambientes pervasivos, mesmo considerando os desafios impostos por esse paradigma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese apresenta a investigação de técnicas computacionais que permitam a simulação computacional da compreensão de frases faladas. Esta investigação é baseada em estudos neurocognitivos que descrevem o processamento do cérebro ao interpretar a audição de frases. A partir destes estudos, realiza-se a proposição do COMFALA, um modelo computacional para representação do processo de compreensão da fala. O COMFALA possui quatro módulos, correspondentes às fases do processamento cerebral: processamento do sinal de fala, análise sintática, análise semântica e avaliação das respostas das análises. Para validação do modelo são propostas implementações para cada módulo do COMFALA. A codificação do sinal se dá através das transformadas ondeletas (wavelets transforms), as quais permitem uma representação automática de padrões para sistemas conexionistas (redes neurais artificiais) responsáveis pela análise sintática e semântica da linguagem. Para a análise sintática foi adaptado um sistema conexionista de linguagem escrita. Por outro lado, o sistema conexionista de análise semântica realiza agrupamentos por características prosódicas e fonéticas do sinal. Ao final do processo, compara-se a saída sintática com a semântica, na busca de uma melhor interpretação da fala.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A grande magnitude mercadológica do agronegócio do café é caracterizada por um conjunto de atividades complexas e dinâmicas que têm passado por expressivas mudanças. Dentre elas se destaca o nível crescente de exigência dos consumidores, que valorizam cada vez mais os cafés que apresentam características físicas e organolépticas distintas, bem como aspectos sociais, culturais e ecológicos que configuram certo grau de particularidade aos grãos. Essas mudanças têm favorecido o crescimento do mercado de produtos especiais, impondo aos países produtores o desafio de uma constante reflexão sobre os elementos que podem afetar a conquista dessa nova fatia de mercado. Apesar de o Brasil ser o maior produtor e exportador de cafés commodities do mundo, ocupa uma parcela pequena no ranking dos especiais. Vale observar que o País tem vantagens, com relação aos outros produtores, por possuir um parque cafeeiro complexo e diverso, que produz uma grande variedade de tipos de bebidas. No entanto, não consegue mostrar nem levar para o consumidor esse produto. Nesse sentido, alguns autores, afirmam que o principal entrave competitivo para o ingresso do Brasil no mercado de cafés especiais é a adoção da estrutura de governança via mercado bem como a coordenação entre os segmentos desse agronegócio. Considerando isso é que se objetivou, com esta pesquisa, “verificar os efeitos da adoção de estruturas de governança na cadeia do café, mais especificamente o caso do Consórcio Agrícola de Fazendas Especializadas (C.A.F.E.), na melhor inserção da Exportadora Princesa do Sul nos mercados de cafés especiais”. Para isso, realizou-se um estudo de caso com o intuito de abranger as características mais importantes do tema que se pesquisou, bem como seu processo de desenvolvimento. O referencial teórico que deu suporte à pesquisa foi a Nova Economia Institucional (NEI), em especial a Economia dos Custos de Transação (ECT). Mediante a análise das variáveis abordadas pela ECT, concluiu-se que a governança do C.A.F.E. é do tipo híbrida, mais especificamente, bilateral, na qual a autonomia entre as partes é mantida, por ser a especificidade do ativo intermediária, não sendo muito elevada, para que necessite de integração vertical. E esta é a forma eficiente, ou seja, aquela que reduz os custos de transação, e além disso, contribui para o incentivo da produção regional de cafés especiais bem como para a ampliação da participação da Exportadora Princesa do Sul nesse segmento crescente de mercado, à medida que busca um relacionamento continuado com os produtores de café – consorciados. No entanto, isto não exime a governança da existência de falhas, as quais foram abordadas, durante a descrição das variáveis que compõe a ECT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta uma arquitetura de Sumarização Automática de Textos Consciente de Contexto que visa contribuir como fator de adaptação em dispositivos de computação móvel. O processo de sumarização proposto baseia-se em informações contextuais, especificamente localização espacial, temporalidade e perfis de usuário, em uma extensão do algoritmo de sumarização extrativa TF-ISF pela inclusão de níveis de relevância adicionais representados por Palavras-Contextuais. A necessidade de adaptação no processo de visualização de textos em dispositivos de computação móvel advém tanto do crescimento da disponibilização de informações em redes de computadores sem fio quanto das características e restrições intrínsecas da plataforma computacional móvel, bem como da baixa capacidade de armazenamento e processamento e interfaces restritas em termos de tamanho e possibilidades de interação. Como um dos possíveis fatores de adaptação sugere-se a utilização da sumarização automática de textos. Esta possibilita a seleção e apresentação das sentenças consideradas mais relevantes dos documentos originais produzindo, com isso, documentos compactos e mais apropriados para a materialização em dispositivos móveis. Entretanto, considera-se que os métodos de sumarização automática atualmente disponíveis na literatura não atendem plenamente a questão proposta porque não consideram, quando do processo de sumarização, as importantes informações contextuais fornecidas pela computação móvel. Como resultado do processo proposto de adaptação através da Sumarização Consciente de Contexto espera-se que os extratos obtidos sejam mais úteis aos usuários dos dispositivos de computação móvel pela sua maior adequação tanto ao contexto quanto ao perfil, bem como da efetiva consideração das limitações intrínsecas a estes. Esta solução visa contribuir fortemente para a disponibilização de informações adequadas e personalizadas, no momento oportuno, para o local adequado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O exame de sangue é um dos procedimentos de análises clínicos mais utilizados pelo largo espectro de anomalias que consegue detectar. A contagem de células de sangue, objeto deste trabalho, é um destes exames. A contagem manual é feita por um operador que examina ao microscópio, com ampliação adequada, uma amostra eventualmente tratada ou colorida. Ainda hoje há casos em que contagem manual é necessária mas é cada vez mais freqüente a utilização da contagem automática, feita através de citômetro de fluxo. Esta dissertação aborda um sistema de contagem de células do sangue por processamento digital de imagens e pode ser automático ou semi-automático. O projeto é fruto de uma parceria entre o LaPSIDELET e o HCPA. Deste projeto surgiu o SAIMO (Sistema de Aquisição de Imagens para uso em Microscopia Óptica). No estágio atual o SAIMO possui algumas limitações no controle de posicionamento e no campo de visão limitado. O controle de posicionamento atual fica a cargo do operador: não há informação sobre as imagens já adquiridas, podendo ocorrer sobreposição. Devido à limitação do campo de visão, várias aquisições devem ser feitas para se obter o número mínimo de células recomendado. Além disso, há um possível aumento de erro de contagem associado às imagens parciais de célula presentes nas bordas das imagens. Este trabalho tem como proposta solucionar o problema de controle de posicionamento das aquisições, com a localização da cena durante a captura da imagem. Além disso, é proposta uma técnica de composição de mosaico com as imagens adquiridas, reduzindo os problemas causados pelo campo de visão limitado. Também são propostos métodos de préprocessamento apropriados às imagens adquiridas, que proporcionam a redução do tempo das tarefas subseqüentes. O método de validação das localizações verifica se as coordenadas encontradas por este processo são consistentes. Os resultados obtidos mostraram que o método é rápido na localização e eficiente na composição do mosaico, podendo ser utilizado como parte de um sistema de contagem de células por processamento digital de imagens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.