995 resultados para Sistema operacional de tempo real


Relevância:

100.00% 100.00%

Publicador:

Resumo:

As “Tertúlias na Baixa” foram um conjunto de propostas de oficinas de mediação com o objetivo de mostrar modos inovadores na exploração do espaço sociomuseológico e de procurar a integração com as comunidades. Foram realizadas no âmbito da “Exposição Baixa em Tempo Real”, uma organização do Departamento de Museologia da ULHT, apresentada na Galeria Milennium/BCP, na Rua Augusta em Lisboa de 1 de março a 30 de Maio de 2013. Em novembro foi proposto que cada um desenvolvesse um conceito inovador e experimental de intervenção no campo da mediação cultural. Entre março e abril de 2013 foram concretizadas no âmbito do progrmas de ação cultural da exposição. De seguida apresentamos um resumo de cada uma das ações desenvolvidas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O método Biográfico na museologia é uma aproximação metodológica que temos vindo a trabalhar desde 2011. Na altura apresentamos uma proposta a que chamamos “Olhares Biográfico: a poética da intersubjetividade na museologia”, que constitui o relatório de pós-doutoramento em sociomuseologia. Posteriormente, no âmbito da exposição “Lisboa em tempo real” propusemos a abertura, no espaço expositivo duma oficina biográfica, para recolher “short stories” dos visitante. O objetivo era recolher material complementar de análise da exposição e dos seus visitantes. Por diversas razões, essa oficina não se concretizou, e a experiencia tem ficado circunscrita ao mundo académico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As leishmanioses caracterizam-se por um espectro de doenças distribuídas endemicamente em regiões tropicais e subtropicais do mundo. A obtenção de material biológico para análise diagnóstica apresenta cuidados cruciais ao paciente, por se tratar de um processo invasivo, passível de inflamação, e podendo haver reativação da doença, em alguns casos. Diante do avanço das técnicas moleculares e da utilização de alguns fluidos biológicos para o diagnóstico da Leishmaniose Tegumentar Americana (LTA), cogitou-se a possibilidade da identificação de DNA de Leishmania spp. em saliva através do método de coleta de swab, sendo contribuinte para o avanço no diagnóstico laboratorial. Assim, o propósito do estudo foi a identificação de DNA de Leishmania spp. a partir do diagnóstico molecular. Foram incluídos no estudo os pacientes que apresentaram lesões ativas, diagnósticos clínicos para LTA, antecedentes epidemiológicos compatíveis e não possuíam lesões cutâneo mucosas. O diagnóstico laboratorial envolveu a abordagem parasitológica através da pesquisa direta do parasito em amostras escarificadas de lesões, enquanto que o molecular compreendeu a extração do DNA das amostras de biópsia e swab salivar, seguidas da reação de PCR convencional (cPCR) e PCR em tempo real (qPCR). Foram investigados 40 pacientes com LTA havendo ocorrência de DNA do parasito em 10 amostras de saliva com cPCR, e 36 amostras utilizando qPCR. Em 28 amostras de biópsias também foi possível a detecção do DNA de Leishmania spp. e em 35 amostras de escarificado de lesão foram encontradas formas amastigotas do parasito, através de pesquisa direta. Na comparação entre os métodos propostos, a biópsia apresentou uma média de 50 por cento de compatibilidade em relação a cPCR e 67,5 por cento para a qPCR. A análise comparativa observou entre o diagnóstico parasitológico e os diagnósticos moleculares uma concordância de 32,5 por cento (14/40) em relação a cPCR, enquanto que a qPCR obteve 75,5 por cento (31/40) de concordância. Considerando a sensibilidade das técnicas de PCR utilizadas e o procedimento de coleta, através de swab advindo de fluidos salivares, os resultados demonstram a viabilidade do método de coleta de Leishmania spp. como uma nova abordagem diagnóstica auxiliar para a LTA, com benefícios à saúde do paciente

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A leishmaniose visceral (LV) é uma doença infecto-parasitária causada por protozoários do gênero Leishmania. O trabalho teve como objetivo avaliar estratégias para o aprimoramento do diagnóstico molecular na LV, que compreenderam a avaliação da eficiência de diferentes métodos de extração de DNA em amostras de urina; a análise do uso da Reação em Cadeia da Polimerase quantitativa em tempo real (qPCR) como ferramenta para a detecção do DNA de Leishmania infantum na referida amostra; e a padronização de uma reação duplex qPCR para a detecção simultânea do DNA de L. infantum e do gene G3PD (controle endógeno). Depois da escolha do protocolo de extração de DNA mais apropriado, e após a otimização e a análise de reprodutibilidade, uma qPCR em urina foi padronizada. Em paralelo, após o desenho e a síntese de sondas TaqMan® compatíveis com os sistemas LINF 1B e G3PD1, após otimização e análise de reprodutibilidade, uma duplex qPCR em sangue também foi padronizada. Para avaliação dos protocolos desenvolvidos foram utilizadas técnicas de estatística descritiva. Para análise comparativa com técnicas clássicas de diagnóstico da LV utilizou-se Teste Qui Quadrado de independência ou Teste Exato de Fisher (p<0,05 e p<0,01, respectivamente). Como resultados, após otimização, o limite de detecção alcançado pela qPCR em urina utilizando o protocolo de extração selecionado (kit comercial) foi de 5 fg/microlitros de amostra 0,034 parasitos) A duplex qPCR em sangue alcançou um limite de detecção de 2x102 fg/microlitros de amostra 1,4 (ou ~ 1,4 parasito), após a otimização. A partir dos dados estatísticos obtidos, pôde-se analisar alta concordância percentual entre a qPCR e urina e o conjunto de critérios diagnósticos (sorologia rK39 + qPCR em sangue), bem como entre a duplex qPCR em sangue e a qPCR em sangue, para os Grupos 01 (pacientes com suspeita de LV) e 02 (pacientes HIV positivos co-infectados ou não). Como um conjunto de critérios, os dois novos ensaios obtiveram excelentes concordâncias com o conjunto de técnicas clássicas: 88,89 por cento e 94,74 por cento para os Grupos 01 e 02, respectivamente. Não houve diferenças estatísticas significativas entre os testes. Pôde-se concluir que ambos os ensaios mostraram bom potencial para a incorporação, após validação, ao diagnóstico da LV; em conjunto ou individualmente (quando necessário), trazendo mais conforto, praticidade, confiabilidade e rapidez ao diagnóstico definitivo da patologia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A tuberculose (TB) é uma doença infecto-contagiosa causada pelo bacilo Mycobacterium tuberculosis e que permanece como um importante problema de saúde pública mundial, sendo a TB pulmonar a forma mais comum de apresentação da doença. O diagnóstico precoce e tratamento adequado são essenciais para a eficácia dos programas públicos de controle da TB. Novos metodologias mais rápidas, sensíveis e específicas, como a reação em cadeia da polimerase (PCR), vem sendo propostas no diagnóstico da doença. O objetivo desse estudo foi avaliar o desempenho de duas PCR, a PCR em tempo real (qPCR) e a Nested PCR em único tubo (STNPCR), em diferentes amostras biológicas, no diagnóstico da tuberculose pulmonar, além de compará-las com as metodologias convencionais (baciloscopia e cultura) e entre si. Para isso foram analisados 125 pacientes que tiveram amostras de sangue (125 amostras de plasma e 116 amostras de PBMC), urina (n=125) e escarro (n=125) coletadas, totalizando a análise de 491 amostras biológicas. Amostras de escarro e urina foram descontaminadas pelo método de Petroff NAOH 4 por cento modificado e semeadas em meio de cultura Lõwenstein-Jensen (LJ), enquanto as amostras de sangue eram separadas em plasma e PBMC. Após processamento, deu-se a extração de DNA através do kit comercial da Qiagen seguida de amplificação pelas duas metodologias de PCR. Para análise estatística calculou-se a sensibilidade, especificidade, valores preditivos positivo e negativo e índice kappa das técnicas. A STNPCR apresentou, em amostras de sangue, sensibilidade de 26,3 por cento e especificidade de 97,7 por cento. Em amostras de urina observou-se uma S = 7,9 por cento e E = 98,9 por cento e em escarro S = 21,1 por cento e E = 98,9 por cento. Quando analisadas as asmotras em paralelo, a sensibilidade da STNPCR foi igual a 44,7 por cento enquanto sua especificidade foi 97,7 por cento. Já a qPCR, em amostras de sangue, obteve sensibilidade igual a 26,3 por cento e especificidade de 95,4 por cento. Em amostras de urina a sensibilidade obtida foi 47,4 por cento e a especificidade 79,3 por cento e, em escarro, S = 36,8 por cento e E = 95,4 por cento. Quando analisada em paralelo, a sensibilidade da qPCR foi 65,8 por cento e a especificidade foi 79,3 por cento. A baciloscopia de escarro apresentou sensibilidade de 41,7 por cento e especificidade de 100 por cento, enquanto as culturas em urina e escarro apresentaram sensibilidade e especificidade, respectivamente, de 10,5 por cento e 100 por cento e 60,5 por cento e 96,6 por cento. Pode-se concluir que a qPCR apresentou melhor desempenho quando comparada à STNPCR e também bom desempenho quando comparada às metodologias convencionais, e que quando analisa-se mais de um tipo de amostras biológica, a eficácia das técnicas é aumentada. Espera-se que com a utilização dessa técnica molecular, seja possível a melhor elucidação dos casos de TB pulmonar, promovendo maior taxa de tratamento dos pacientes e menor risco de transmissão da doença

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A segurança alimentar é um dos principais fatores a ser considerado na área de alimentação e nutrição, a Organização Mundial da Saúde (OMS) registrou 351 casos de morte por contaminação alimentar no ano de 2010 e estima que cerca 582 milhões dos casos de contaminação global foram causados por consumo de alimentos estragados ou contaminados. Diante deste cenário, a indústria de alimentos vem desenvolvendo técnicas e processos para tornar o alimento cada vez mais seguro para o consumidor e ao mesmo tempo adequar seus processos, estruturas e capacitação de pessoas para atender a legislação vigente. Alimentos industriais geralmente são produzidos em grande escala para atender à demanda, exigindo assim processos automatizados e também um certo número de funcionários que manipulem este alimento, aumentando o risco de contaminação por conta dos manipuladores. A indústria de embalagens vem se desenvolvendo no sentido de reduzir a atividade microbiana no interior da embalagem, por meio de embalagens ativa ou de modificação atmosférica, ou embalagens que possam transmitir ao consumidor mais confiabilidade, indicando o que acontece no interior das embalagens. O objetivo do presente estudo foi analisar junto a literatura quais os tipos de embalagens existentes nos dias de hoje, e demonstrar sua eficácia no controle e inibição do crescimento microbiano e melhoria da qualidade organoléptica. Por meio de pesquisas as principais bibliotecas digitais como LILACS, BIREME, além de fonte de livrose defesa de mestrado, obteve-se como resultado um grande acervo a respeito de embalagens ativas e inteligentes. Conclui-se, portanto, que esta revisão tem potencial para se tornar fonte de pesquisa para industrias que procuram inovações no setor de embalagem. O termo embalagem ativa e embalagem inteligente ainda é pouco conhecido pelos consumidores e mesmo os que já conhecem os termos, acabam concluindo que ambas embalagens são ativas, sendo que embalagens ativas tem a função de interagir com o alimento para melhorar seus aspectos sensoriais e as embalagens ativas monitoram e transmitem em tempo real a situação do produto armazenado em diversos aspectos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uma grande evolução aconteceu no mundo com o surgimento da Internet. Ela causou um espantoso aumento das comunicações, que passaram a ser em tempo real e com uma abrangência mundial. Foi a democratização da informação. A Internet serve como uma grande ferramenta para as empresas, principalmente com a globalização dos mercados, fenômeno que cresce cada dia mais e atinge a todos. A globalização fez com que as organizações se tornassem globais, e a Internet funciona como um elo de ligação entre empresas, fornecedores e consumidores. Este trabalho consistiu na realização de uma pesquisa survey exploratória com o objetivo de verificar e descrever o uso potencial da Internet como ferramenta de auxílio à realização de negócios de caráter global, nas micro, pequenas e médias empresas de Porto Alegre. A amostra das empresas pesquisadas foi extraída do Trade Point Porto Alegre, por ser essa uma entidade que tem por objetivo auxiliar as empresas a realizarem operações globais. Com relação ao mercado global, o trabalho identificou que quase todas as empresas acreditam que ele tenha oportunidades de negócios. Os principais meios para entrar nesse mercado são a participação em feiras e rodadas de negócios, contato pessoal e o Trade Point. A Internet já está disseminada no meio empresarial, todas as empresas já a conhecem, e boa parte das empresas realizam operações que podem ser auxiliadas pela rede, como comunicação, promoção de produtos e acompanhamento pós-venda. Identificou-se que as microempresas são as que menos acreditam no mercado internacional, mas apontaram que a Internet pode ajudá-las em suas atividades. Já as pequenas empresas são as que atuam no mercado internacional e acreditam que a Internet possa ajudá-las em algumas atividades. Por fim, as médias empresas, também atuam no mercado internacional, principalmente com as exportações, e são as que já estão utilizando a Internet. O Trade Point se mostrou um serviço bem requisitado pelas empresas, principalmente as que atuam com o comércio internacional. As principais vantagens citadas foram a centralização de informações e a geração de novos negócios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diante de mercados globais, interligados em tempo real, as empresas se vêem diante do desafio de se tornarem mais flexíveis, centrarem-se em suas principais competências e, sobretudo, terem a capacidade de dar respostas rápidas e adequadas às mudanças, em um ambiente onde a tempestividade da resposta pode ditar o sucesso ou o fracasso de uma empresa. Nesse contexto, a auditoria interna, em razão do seu posicionamento estratégico e permeabilidade por toda a organização, pode contribuir mais efetivamente para a melhoria dos processos produtivos e de gestão das organizações, através de uma atuação diferenciada de seus auditores. Por sua vez, a aprendizagem organizacional, entendida como um processo de apropriação e geração de novos conhecimentos, voltado para a construção ou desenvolvimento de novas competências, pode potencializar o valor agregado dos trabalhos de auditoria. Dentro dessa perspectiva, a resolução coletiva de problemas, baseada nas constatações de auditoria, pode tornar-se um veículo eficaz para alavancar o processo de aprendizagem por toda a organização. O presente trabalho procura avaliar os impactos da difusão dos princípios e conceitos de aprendizagem organizacional nas práticas de trabalho dos auditores internos, através de uma estratégia focada na resolução coletiva de problemas, tomando como objeto de pesquisa o processo desenvolvido na área de auditoria interna do Banco do Brasil S.A. A pesquisa, qualitativa na sua essência e orientada pela Grounded Theory (Glaser & Strauss, 1967; Strauss & Corbin, 1990), abrangeu o acompanhamento de 30 eventos desenvolvidos no âmbito da unidade de pesquisa, desembocando em 34 fontes primárias, derivadas de relatos, relatórios, transcrição dedeos e entrevistas, memorandos, etc. Como resultante, o trabalho apresenta e avalia os principais impactos verificados nas práticas de auditoria interna, bem como nas ações dos indivíduos participantes do processo. O estudo abrange, também, a identificação das principais barreiras para aprendizagem e das competências básicas requeridas para condução de um processo de aprendizagem organizacional dessa natureza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A caracterização de desempenho e uma atividade fundamental na area de controle industrial. Por se tratar, na maior parte das vezes, de aplicações de tempo real, a caracterização de desempenho torna-se ainda mais necessária e importante. Entretanto, atualmente não há nenhuma metodologia estabelecida para realizar esta caracterização. Não há nem mesmo um conjunto de parâmetros que devem ser avaliados em um equipamento de controle utilizado em processos industriais. Para tentar suprir esta carência, este trabalho apresenta uma proposta de métricas e workloads para serem utilizados na avaliação de desempenho de sistemas de controle baseados em CLPs e CPUs Industriais. O processo de avaliação de desempenho e discutido em todas as etapas, desde o estudo da aplicação at e a execução dos passos de caracterização de desempenho. Para ilustrar a aplicação das métricas, técnicas e procedimentos propostos, são avaliadas três CPUs Industriais, e os resultados s~ao apresentados ao nal do trabalho. Espera-se assim estar contribuindo para o estabelecimento de uma metodologia padronizada para avaliação de desempenho de equipamentos de controle industrial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho aborda o tema da geração de sistemas supervisórios a partir de modelos orientados a objetos. A motivação para realização do trabalho surgiu com o estudo de sistemas supervisórios e de ferramentas de suporte à modelagem de sistemas usando orientação a objetos. Notou-se que nos primeiros, apesar de possuírem como principal objetivo a visualização de estados e grandezas físicas relacionadas a componentes de plantas industriais (nível de um tanque, temperatura de um gás, por exemplo), os modelos computacionais utilizados baseiam-se em estruturas de dados não hierárquicas, nas quais variáveis de contexto global e não encapsuladas, as chamadas “tags”, são associadas às grandezas físicas a serem visualizadas. Modelos orientados a objeto, por outro lado, constituem uma excelente proposta para a criação de modelos computacionais nos quais a estrutura e semântica dos elementos de modelagem é bastante próxima a de sistemas físicos reais, facilitando a construção e compreensão dos modelos. Assim sendo, a proposta desenvolvida neste trabalho busca agregar as vantagens do uso de orientação a objetos, com conceitos existentes em sistemas supervisórios, a fim de obter-se ferramentas que melhor auxiliem o desenvolvimento de aplicações complexas. Classes e suas instâncias são usadas para modelagem de componentes da planta industrial a ser analisada. Seus atributos e estados são associados às grandezas físicas a serem visualizadas. Diferentes formas de visualização são associadas às classes, aumentando assim o reuso e facilitando o desenvolvimento de sistemas supervisórios de aplicações complexas. A proposta conceitual desenvolvida foi implementada experimentalmente como uma extensão à ferramenta SIMOO-RT, tendo sido denominada de “Supervisory Designer”. A ferramenta desenvolvida estende o modelo de objetos e classes de SIMOO-RT, permitindo a adição de informações específicas para supervisão – tais como as definições de limites para os atributos. A ferramenta foi validada através do desenvolvimento de estudos de casos de aplicações industriais reais, tendo demonstrado diversas vantagens quando comparada com o uso de ferramentas para construção de sistemas supervisórios disponíveis comercialmente).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de mecanismo para o controle de integridade de arquivos em sistemas operacionais, com a capacidade de bloquear o acesso à arquivos inválidos de forma a conter os danos causados por possíveis ataques. O modelo foi inicialmente formulado a partir do estudo detalhado do processo de controle de integridade, revelando diversos pontos críticos de segurança nele existentes, e da avaliação dos mecanismos atualmente implementados nos sistemas operacionais que oferecem, mesmo que indiretamente, algum tipo de garantia de integridade dos arquivos do sistema. Durante o seu desenvolvimento, a segurança do próprio modelo foi detalhadamente analisada de forma a enumerar os seus pontos críticos e possíveis soluções a serem empregadas, resultando na definição dos requisitos mínimos de segurança que devem ser encontrados nesse tipo de mecanismo. Em seguida, visando a validação do modelo especificado e decorrente disponibilização do mecanismo para uso prático e em estudos futuros, um protótipo foi implementado no sistema operacional GNU/Linux. Procurando confirmar a sua viabilidade, foram realizadas análises do impacto causado sobre o desempenho do sistema. Por fim, foi confirmada a importância e viabilidade do emprego do modelo apresentado como mecanismo adicional de segurança em sistemas operacionais. Além disso, foi colocado em evidência um campo de pesquisa ainda pouco explorado e portanto atrativo para a realização de novos estudos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.