921 resultados para Jabuticaba - Processamento
Resumo:
Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.
Resumo:
Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.
Resumo:
A modelagem, a correlação e a análise de dados geofísicos e geoquímicos, aplicados para avaliar/definir a distribuição e o controle de teores de minério num espaço 3D, não são procedimentos adotados para o caso de depósitos de metais básicos e Au. Essa tese de doutorado tem o objetivo de avaliar e definir uma metodologia de modelagem, correlação e análise de dados geofísicos e geoquímicos para controle de teores de metais básicos e Au. Tal metodologia foi aplicada no Prospecto Volta Grande (Lavras do Sul, RS). A região de Lavras do Sul (RS) possui uma série de ocorrências minerais do tipo veios de quartzo com metais básicos e Au, as quais estão relacionadas com o processo de alojamento do Complexo Intrusivo Lavras do Sul. Esse complexo é uma intrusão predominantemente granítica, zonada e multifásica, cujas rochas têm filiação com as séries shoshonítica a alcalina. As ocorrências de veios estão relacionadas a zonas de alteração hidrotermal controladas por fraturas predominantemente WNW-ESE. O Prospecto Volta Grande é constituído por uma série de tais veios alojados tanto no granito intrusivo, quanto nas rochas vulcânicas e vulcanoclásticas da Formação Hilário. A metodologia desenvolvida consiste: 1) da construção de uma base de dados comum para o georreferenciamento 3D dos dados; 2) processamento estatístico e geoestatístico das variáveis de interesse (dados geofísicos e geoquímicos); 3) modelagem 3D das variáveis de interesse para definir a distribuição espacial; e 4) análise da correlação entre as variáveis para definir o controle 3D dos teores de minério por meio de métodos indiretos. Essa metodologia, na medida em que haja a possibilidade de várias fontes de informação e a possibilidade de aplicar algorítmos de lógica matemática, poderá incorporar a integração de dados num espaço 3D A aplicação de tal metodologia no Prospecto Volta Grande (Lavras do Sul, RS) permitiu verificar que os dados geofísicos e geoquímicos se adaptam mais adequadamente a uma distribuição do tipo lognormal. Além disso, a comparação múltipla das médias de resistividade aparente permitiu distinguir um controle litológico sobre os dados geofísicos. Desse modo, foram definidos os procedimentos de análise variográfica e, então, os parâmetros para a modelagem 3D dos corpos condutores em cada área de pesquisa. A adequação do suporte amostral dos dados geofísicos e geoquímicos permitiu a correlação entre essas variáveis. A análise dos diagramas de correlação revelou superposição de pulsos de mineralização com distintas cargas metálicas. A utilização de métodos indiretos para controle de teores em depósitos sulfetados do tipo veios de quartzo com Au + Cu é, portanto, uma possibilidade concreta, garantida a adequada resolução espacial dos levantamentos geofísicos.
Resumo:
Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.
Resumo:
Substâncias carcinogênicas são diariamente lançadas no meio ambiente, tanto na atmosfera quanto em corpos hídricos. Estas são capazes de ligar-se a proteínas constituintes de tecidos vivos produzindo um carcinoma, cuja probabilidade de formação depende da afinidade do poluente com os grupos funcionais presentes nos substratos protéicos. Contudo, os mecanismos pelos quais ocorre a formação do carcinoma não estão totalmente esclarecidos. Alguns modelos baseados em propriedades moleculares foram formulados na tentativa de prever quais serão os mecanismos, compostos intermediários e produtos finais de reação. Porém, esses modelos apresentam sérias limitações por não levarem em conta a dinâmica do processo reativo. Para que se possa estimar os mecanismos, é preciso detectar a formação ou ruptura de ligações ao longo do tempo, o que torna necessário utilizar modelos transientes. O presente trabalho apresenta um modelo que resolve a equação de Schrödinger dependente do tempo para verificar qual o mecanismo de reação entre uma substância carcinogênica e um aminoácido. A simulação do cenário transiente proposto requer um baixo tempo de processamento e possibilita uma fácil interpretação dos resultados obtidos.
Resumo:
A criptografia assumiu papel de destaque no cotidiano das pessoas, em virtude da necessidade de segurança em inúmeras transações eletrônicas. Em determinadas áreas, a utilização de hardware dedicado à tarefa de criptografia apresenta vantagens em relação à implementação em software, devido principalmente ao ganho de desempenho. Recentemente, o National Institute of Standards and Technology (NIST) publicou o novo padrão norte-americano de criptografia simétrica, chamado de Advanced Encryption Standard (AES). Após um período de aproximadamente 3 anos, no qual várias alternativas foram analisadas, adotou-se o algoritmo Rijndael. Assim, este trabalho apresenta um Soft IP do padrão AES, codificado em VHDL, visando a implementação em FPGA Altera. Todo o projeto foi construído com funções e bibliotecas genéricas, a fim de permitir a posterior implementação sobre outras tecnologias. Foram geradas duas versões: uma priorizando desempenho e outra priorizando a área ocupada nos componentes. Para cada uma das versões, produziu-se um circuito para encriptar e outro para decriptar. O desempenho alcançado em termos de velocidade de processamento superou todos os outros trabalhos publicados na área, sobre a mesma tecnologia. São apresentados os detalhes de implementação, arquiteturas envolvidas e decisões de projeto, bem como todos os resultados. A dissertação contém ainda conceitos básicos de criptografia e uma descrição do algoritmo Rijndael.
Resumo:
As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.
Resumo:
A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.
Resumo:
Compósitos de polipropileno (PP) com cargas inorgânicas tem sido cada vez mais aplicados na obtenção de peças automotivas, eletrodomésticos e outros. O crescimento da aplicação destes materiais foi possível com o advento da tecnologia de adesão que consiste no uso de um agente que promove a interação físico-química na interface carga/matriz. Neste trabalho, o viniltrietoxisilano (VTES) foi empregado como agente de adesão em compósitos de PP com fibras de vidro curtas. A reação do VTES com PP por via radicalar foi estudada em câmara de mistura e por extrusão reativa, comparando-se os dois processos. O VTES reage com o PP na ausência de iniciador de reação radicalar em processos com alto cisalhamento. A reação modifica o comportamento reológico do polímero, sem afetar significativamente as propriedades térmicas e mecânicas. O teor de VTES tem influência sobre o peso molecular de produtos sem peróxido. Compósitos de PP contendo 20% de fibras de vidro foram obtidos por extrusão reativa e câmara de mistura, analisando-se o efeito de VTES sobre as propriedades mecânicas, reológicas e a morfologia dos produtos. Um estudo das condições de processamento por extrusão reativa é apresentado, comparando dois métodos a) pré-impregnação do polímero com os reagentes e b) adição de uma solução dos reagentes num estágio avançado da extrusora. A quebra diferenciada das fibras durante o processamento por extrusão pode ser explicada através comportamento reológico observado pelas medidas de torque na câmara de mistura O VTES age no sentido de promover a adesão na interface matriz / fibra, o que pode ser verificado pela morfologia do material. A degradação do material é influenciada pela exposição ao ar, pelo tempo de residência e pela temperatura na extrusão. O módulo dos compósitos contendo VTES é dependente do comprimento das fibras. A tensão de ruptura aumenta em presença de VTES.
Resumo:
O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.
Resumo:
A cardiomioplastia (CDM) tem sido proposta com uma alternativa de tratamento cirúrgico para pacientes em estado avançado de cardiomiopatia dilatada e isquêmica. Os resultados clínicos e experimentais demonstram que este procedimento atenua o processo de remodelamento ventricular, através da compressão dinâmica ou passiva do miocárdio pelo grande dorsal (GD). Além disso, estudos observaram formação de vasos colaterais do GD para o coração após a CDM. O infarto do miocárdio (IM) induz disfunção e remodelamento ventricular e tem sido muito utilizado na literatura como modelo experimental de isquemia miocárdica. A aplicação de fatores angiogênicos diretamente no miocárdio isquêmico tem mostrado resultados positivos na estimulação da formação de colaterais. O objetivo do presente estudo foi avaliar os efeitos da CDM associada ao tratamento com VEGF165 na função ventricular e no desenvolvimento de fluxo colateral extramiocárdico em ratos infartados. Foram utilizados ratos machos Wistar (n=57, 220-250g) divididos em grupos infartados e controles. As alterações temporais induzidas pelo IM (ligadura da artéria coronária esquerda) foram avaliadas aos 14 (IM-14) e aos 56 (IM-56) dias pós IM sendo comparadas com seus respectivos controles (C-14 e C-56). Animais controles (C-CDM) e infartados (IM-CDM) foram submetidos à CDM passiva (sem estimulação do GD) após 14 dias de IM e avaliados aos 56 dias. Ratos controles foram submetidos à cirurgia fictícia de IM e de CDM (S-IMCDM) e ratos infartados à cirurgia fictícia de CDM (IM-SCDM) a fim de verificar eventuais alterações induzidas pelos procedimentos cirúrgicos. Um grupo de ratos infartados recebeu a administração de uma dose de 25µg de VEGF165 na artéria principal do GD imediatamente antes da CDM (14 dias de IM) e foi avaliados aos 56 dias (IMCDM-VEGF). Ao final do protocolo os animais foram anestesiados (pentobarbital sódico, 40mg/Kg) e a artéria carótida direita foi canulada para registro da PA. Logo após, esta cânula foi inserida no ventrículo esquerdo (VE) para registro da pressão ventricular. O registro e processamento dos sinais de pressão foram realizados utilizando-se um sistema de aquisição de sinais (CODAS, 1 Khz). O débito cardíaco (DC) e os fluxos regionais (coração e rins) foram avaliados através da infusão de 300 000 microesferas azuis no ventrículo esquerdo. Após a infusão de 50 000 microesferas amarelas na artéria principal do GD o fluxo colateral extramiocárdico do GD para o coração (FCO GD→coração) foi quantificado através da divisão do número de microesferas amarelas no coração pelo número de microesferas amarelas no GD. Após a oclusão da artéria do GD foram infundidas 300 000 microesferas azuis no VE e o fluxo colateral extramiocárdico do coração para o GD (FCO coração→GD) foi avaliado pela divisão do número de microesferas azuis no GD pelo número de microesferas azuis no coração. O IM induziu hipotensão e aumento da pressão diastólica final (PDF) nos grupos IM-14 (84±6 e 6,88±2,6 mmHg) e IM-56 (98±3 e 15,4±2 mmHg) em relação aos seus respectivos controles (C-14: 102±4 e –3,2±0,5; C-56: 114±3 e 0,5±1,7 mmHg). O débito cárdiaco (DC) foi menor no grupo IM-56 (49,5±9 ml/min) em relação ao grupo IM-14 (72±9 ml/min). A máxima velocidade de relaxamento do VE (-dP/dt) estava reduzida nos grupos IM-14 (-2416±415 vs -4141±309 mmHg/seg nos C-14) e IM-56 (-3062±254 vs -4191±354 mmHg/seg nos C-56) e a de contração do VE (+dP/dt) somente no grupo IM-56 (4191±354 vs 5420±355 mmHg/seg nos C-56). O IM não alterou o fluxo e a resistência vascular coronariana, no entanto, o fluxo renal estava reduzido e a resistência renal aumentada no grupo IM-56 quando comparados ao grupo C-56. Os animais com 56 dias de IM apresentaram aumento de massa ventricular (pv) e da razão peso ventricular/peso corporal (pv/pc) em relação aos controles (1,3±0,04 vs 0,98±0,04 23 g e 3,37±0,08 vs 2,54±0,09 mg/g nos C-56). O tamanho do infarto foi menor no grupo IM-14 (35±3 % do VE) em relação ao grupo IM-56 (44±2 % do VE). Os grupos sham não apresentaram alterações nos parâmetros avaliados em relação aos seus controles. Os ratos infartados submetidos à CDM não apresentaram hipotensão (105±2 mmHg), nem aumento da PDF (4,8±1,7 mmHg) conforme observado no grupo IM-56. O FC, o DC, a RVP e os fluxos e a resistência vascular coronariana foram semelhantes entre os grupos C-56, IM-56, C-CDM e IM-CDM. A +dP/dt e a –dP/dt mostraram-se reduzidas nos grupos C-CDM e IM-CDM em relação ao grupo C-56. O fluxo e a resistência vascular renal estavam normalizadas nos ratos IM-CDM. O pv (1,11±0,04g) e a razão pv/pc (2,94±0,09 mg/g) apresentaram-se similares aos valores do grupo C-56 e o tamanho do IM foi semelhante entre os grupo IM-56 e IM-CDM (44±2 vs 45±3 % do VE). O grupo IMCDM-VEGF apresentou normalização dos parâmetros hemodinâmicos e morfométricos de forma semelhante aos do grupo IM-CDM quando comparados ao grupo IM-56. A resistência coronariana mostrou-se reduzida nos animais IMCDM-VEGF (22,07±2,01 mmHg/ml/min/g) quando comparada ao grupo C-CDM (37,81±4 mmHg/ml/min/g), apesar do fluxo coronariano ter sido similar entre os grupos submetidos à CDM. O FCOcoração→GD ocorreu predominantemente nos animais dos grupo C-CDM e IMCDM-VEGF (70% e 83,3% vs 28,6% no IM-CDM) enquanto que o FCO GD-coração foi observado em todos os animais dos grupos IM-CDM e IMCDM-VEGF (20% no C-CDM). A administração de VEGF165 aumentou o FCO GD→coração em valores absolutos e normalizados por grama (24,85±10,3% e 62,29±23,27%/g) em relação aos grupos C-CDM (0,88±0,89% e 1,42±1,42%/g) e IM-CDM (4,43±1,45 % e 7,66±2,34 %/g). O FCO GD→coração normalizado foi maior nos animais IM-CDM em relação aos C-CDM. O grupo IMCDM-VEGF (4,47±1,46 %/g) apresentou maior FCO coração→GD normalizado em comparação ao grupo MI-CDM (2,43±1,44 %/g). O tamanho do infarto foi menor nos animais do grupo IMCDM-VEGF (36±3 % do VE) em relação aos grupos IM-56 e IM-CDM. Correlações positivas foram obtidas entre o FCO GD→coração e o volume sistólico e (r=0,7) e o fluxo coronariano (r=0,7), e entre a PDF e a razão pv/pc (r=0,8) e o tamanho do IM (r=0,6). Além disso, correlações inversas foram observadas entre o tamanho do infarto e o volume sistólico (r=0,8) e o FCO GD→coração (r=0,7). Estes resultados permitem concluir que a CDM passiva preveniu a disfunção e o remodelamento do VE em ratos infartados. A aplicação de VEGF165 induziu diminuição do tamanho do IM que pode estar associado ao aumento do fluxo colateral extramiocárdico do GD→coração observado neste grupo tratado com VEGF. Estes achados sugerem que o uso de fatores angiogênicos, como o VEGF165, pode induzir melhora da perfusão das regiões isquêmicas do coração infartado, limitando a perda tecidual. Este efeito associado ao da compressão passiva do VE infartado pelo GD pós CDM, pode prevenir as disfunções decorrentes de isquemias miocárdicas.
Resumo:
Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.
Resumo:
O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.