29 resultados para standard package software


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentado o desenvolvimento de um programa computacional que simula o desempenho térmico de um sistema de aquecimento solar de água com circulação forçada, adequado para uso em edificações. O programa trabalha realizando o balanço de massa e de energia no reservatório térmico a cada hora, tendo como valores de entrada dados do ano meteorológico típico da localidade selecionada e a vazão de água quente de consumo. Os componentes do sistema são o reservatório térmico de água quente com aquecedor auxiliar interno, o coletor solar e a bomba de circulação. A base de dados meteorológicos escolhida foi a do projeto SWERA, que contém arquivos no formato padrão TMY disponíveis na internet para um número considerável de cidades, incluindo diversas localidades brasileiras. Foi proposto um modelo de temperatura de água da rede de abastecimento relacionado com a temperatura do solo, dado disponível nos arquivos de entrada utilizados. O programa utilizou como referência para a validação dos modelos de cálculo resultados obtidos pelo programa comercial de simulação TRNSYS. Foram comparados resultados para os modelos de irradiação incidente em superfície inclinada, do coletor solar e do sistema completo. Para isto foram simulados sistemas localizados em quatro cidades distintas com climas diferentes. O tempo total usado nas simulações foi de um ano e os resultados das comparações dos valores resultantes foram considerados satisfatórios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O período pós-parto pode ser considerado a fase em que a mulher está exposta a retenção de massa corporal (MC) e desenvolvimento da obesidade. Na maioria das situações valorizam-se mais a perda de MC e pouco se conhece a respeito dos componentes que estão sendo mobilizados. Desta forma, há interesse de se validar técnicas acessíveis, como a impedância bioelétrica (BIA), que possam ser aplicadas no acompanhamento nutricional destas mulheres. O presente estudo teve como objetivo validar diferentes modelos de impedância bioelétrica (BIA) para a determinação da composição corporal em mulheres pós-parto tendo como ?padrão ouro? a técnica de absorciometria de dupla energia de raio X(DXA). A amostra foi composta por 46 mulheres no período pós-parto com idade acima de 18anos, inicialmente recrutadas e convidadas a participar da pesquisa, logo após o parto, para posteriormente serem avaliadas. A composição corporal (CC) foi mensurada através de três aparelhos distintos de BIA: RJL , BIO e Tanita e pela DXA. Os componentes101450BC 533corporais medidos foram: massa livre de gordura (MLG), massa gorda (MG) e percentual degordura corporal (%GC). Na análise estatística foram calculadas as médias e desvio-padrãodas variáveis contínuas. A concordância entre os componentes corporais determinados pelaDXA e cada BIA foi avaliada pelo método de Bland & Altman e pelo coeficiente decorrelação de concordância (CCC). Para comparação de médias das variáveis obtidas por BIAe DXA para cada faixa de índice de massa corporal (IMC), foi aplicada a ANOVA e oadotado o teste post-hoc de Tukey. O nível de significância adotado foi de 95% (p=0,05). Amédia ( desvio padrão) de idade foi de 25,5 4,6 anos, a MC de 73,6 12,2kg, o IMC de28,7 4,3kg/m, a MG de 29,87,4kg, a MLG de 43,25,7kg e o %GC de 41,84,3%,obtidos pelo DXA. Ao comparar-se os resultados dos diferentes equipamentos com o método padrão-ouro, verificou-se que houve diferença significativa entre a DXA e as BIA para todos componentes corporais, com exceção da MG fornecida pelo RJL (27,1Kg) e TAN (27,1Kg)em relação à DXA (29,8Kg). Os resultados mostraram haver uma boa reprodutibilidade emrelação aos aparelhos de BIA TAN (r=0,74; r=0,90) e RJL (r=0,78; r=0,89) para MLG e MG.Verificou-se que os equipamentos de BIA TAN e RJL forneceram estimativas semelhantes em relação à MLG, MG e %GC. Em relação aos valores da DXA o equipamento que mais se aproximou foi a TAN e o RJL quando avaliada a MG considerando todas as mulheres, mas quando estratificadas segundo o IMC, a análise foi mais acurada em mulheres obesas.Entretanto, a concordância não foi satisfatória entre os componentes corporais fornecidos pelas BIA em relação à DXA. As BIAs avaliadas no presente estudo subestimaram o %GC e superestimaram a MLG para esse grupo de mulheres no período pós-parto. Conclui-se que as BIA avaliadas não são recomendadas para avaliação da CC neste grupo de mulheres no período pós-parto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cirurgias ortognáticas bimaxilares representam um desafio para os cirurgiões, especialmente para reproduzir o plano de tratamento na sala operatória. O uso de guias cirúrgicos permite uma melhor reprodução do planejamento, mas, para isto, uma técnica precisa de cirurgia de modelos é essencial. O objetivo deste estudo é comparar a precisão do reposicionamento mandibular obtido com dois diferentes métodos de cirurgia de modelos utilizados para o planejamento de cirurgias bimaxilares com a seqüência cirúrgica invertida. Neste estudo, um crânio de resina foi utilizado para simular um paciente. As moldagens foram tomadas e os modelos foram vazados e montados em um articulador semi-ajustável por meio da transferência do arco-facial e do registro de mordida em cera. Traçados de previsão de 10 planos de tratamento diferentes foram feitos no software Dolphin Imaging e, então, reproduzidos com o método padrão (CM I) e método modificado (CM II) de cirurgia de modelos (T1). Para aprimorar a avaliação do reposicionamento mandibular, as cirurgias de modelo foram repetidas após um mês (T2). Os modelos mandibulares foram medidos na Plataforma de Erickson antes e depois do reposicionamento para contrastar os resultados. As diferenças no tempo de reposicionamento também foram registradas. Estatística descritiva e teste t foram usados para análisar os dados e comparar os resultados. Este estudo sugere que o reposicionamento vertical e látero-lateral dos modelos mandibulares foram semelhantes com ambos os métodos, entretanto, houve uma maior imprecisão no sentido ântero-posterior quando o método padrão de cirurgia modelos foi utilizado para o planejamento de cirurgias ortognáticas com a seqüência invertida. O tempo necessário para reposicionar o modelo mandibular no articulador semi-ajustável com a abordagem modificada (CM II) foi significativamente menor do que para reposicionar o modelo maxilar na Plataforma de Erickson (CM I).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O contexto da era da informação exige novas habilidades para competir com sucesso, tanto para empresas industriais como para as de serviços. Desde o seu surgimento, a Engenharia de Software tem enfrentado o desafio em estimar, controlar e gerenciar custos no processo de desenvolvimento de software. Os custos são parte de um projeto de software e nem sempre são claramente mensurados. Algumas desenvolvedoras de software são caracterizadas como prestadoras de serviços e as organizações que prestam serviços possuem as mesmas dificuldades em termos gerenciais que as indústrias, elas precisam de sistemas de gestão adequados para gerir seus custos, logo seus recursos. Nesse contexto é que os sistemas de informações contábeis estão inseridos, fornecendo respostas que os gestores necessitam para tomar decisões. Os custos são exemplos desse tipo de informação, pois o seu conhecimento é indispensável para uma boa gerência dos recursos organizacionais. O Custeio Baseado em Atividades (ABC) é uma ferramenta contábil útil para o gerenciamento estratégico dos custos uma vez que os sistemas de custeio tradicionais já não atendem essa necessidade das organizações. Diante desse cenário, o objetivo geral dessa dissertação é aplicar a metodologia de custeio baseado em atividades em um projeto de desenvolvimento de software com a finalidade de gestão de custos. Este pesquisa caracteriza-se como qualitativa descritiva e faz uso do método do estudo de caso. Através desse estudo foi possível comprovar a utilidade do ABC como instrumento de auxílio na gestão de custos nas organizações que prestam serviços em desenvolvimento de software, pois possibilita a visualização da maneira que os recursos são consumidos pelas atividades que agregam e não agregam valor ao negócio e ao cliente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A discussão jurídica versa acerca da proteção ou não dos dados clínicos e informações não divulgadas Data Package, obtidos através de pesquisas clinicas, a partir do desenvolvimento de um novo medicamento. È importante realizar-se uma investigação prévia para descobrir se o novo medicamento a ser comercializado, possui efeitos benéficos ou adversos, que possam afetar os seres humanos, garantindo assim a eficácia e a segurança de sua utilização. O dossiê contendo os dados clínicos é submetido à Agência Nacional de Vigilância Sanitária que, no uso de sua atribuição específica, e em função da avaliação do cumprimento de caráter jurídico-administrativo e técnico-científico relacionado com a eficácia, segurança e qualidade do medicamento conforme a Lei 6360/76 e o Decreto 79.094/77 determina o registro sanitário. A tese defendida pelas sociedades farmacêuticas de pesquisa é a de que seria vedado à ANVISA deferir registros de medicamentos genéricos e similares de mesmo princípio ativo, com base nas pesquisas clinicas realizada, enquanto vigente o período de exclusividade, com fundamento no artigo 5, inciso XXIX da Constituição Federal, artigos 39.1, 39.2, 39.3 do Acordo sobre Aspectos dos Direitos de Propriedade Intelectual Acordo TRIPS, artigo 195, XIV da Lei n 9.279/96 (Lei da Propriedade Industrial), artigo 421, 884, 885 e 886 do CC, artigo 37, caput, da CF e artigo 2, da Lei 9.784/99 e aplicação analógica da Lei 10.603/2002. A ANVISA ao permitir aos fabricantes dos medicamentos genéricos e similares a utilização do pacote de dados clínicos, fornecido pelo titular do medicamento de referencia, estaria promovendo a concorrência desleal e parasitária, ao permitir que as versões genéricas e similares, ingressem no mercado, sob custos de produção e comerciais substancialmente menores, do que os praticadas pelos medicamentos de referencia. Este argumento tem fulcro na norma do artigo 39.3 do Acordo TRIPS firmado entre os membros da Organização Mundial do Comércio OMC, em 1994, no qual o Brasil é signatário, e que se comprometeram a adotar providências no sentido de manter em sigilo e protegidos contra o uso comercial desleal os dados clínicos relativos à pesquisa clínica, necessários à aprovação da comercialização de produtos farmacêuticos. A divulgação, exploração ou a utilização dos dados clínicos, sem a autorização do respectivo titular, o qual demandou recursos materiais e humanos consideráveis e desde que estas informações tenham sido apresentadas a entidades governamentais como condição para aprovação da comercialização de um medicamento, devem ser protegidas. Os Estados membros da OMC e subscritores do acordo internacional devem assegurar que os concorrentes não tenham acesso às informações recebidas pelo ente estatal, que não as explorarem ou delas possam aferir indevidamente tanto direta quanto indiretamente de vantagens que as beneficiem do conhecimento técnico-cientifico, investimentos e esforços realizados pelo titular daquela pesquisa clínica. Dentro deste cenário, faz-se necessário que o Estado produza um marco regulatório capaz de prover uma segurança jurídica, que permita as sociedades farmacêuticas disponibilizar elevado investimento, viabilizando a realização de pesquisa clinica e introdução de novos medicamentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi desenvolver um estudo morfológico quantitativo e qualitativo da região da sínfise mandibular (SM), através da construção de modelos tridimensionais (3D) e avaliar o seu grau de associação com diferentes classificações de padrões faciais. Foram avaliados 61 crânios secos humanos de adultos jovens com oclusão normal, com idade entre 18 e 45 anos e dentadura completa. Tomografias computadorizadas de feixe cônico (TCFC) de todos os crânios foram obtidas de forma padronizada. O padrão facial foi determinado por método antropométrico e cefalométrico. Utilizando o critério antropométrico, tomando como referência o índice facial (IF), o padrão facial foi classificado em: euriprósopo (≤84,9), mesoprósopo (85,0 - 89,9) e leptoprósopo (≥90,0). Pelo critério cefalométrico, o plano mandibular (FMA) determinou o padrão facial em curto (≤21,0), médio (21,1 - 29,0) e longo (≥29,1); e o índice de altura facial (IAF) classificou a face em hipodivergente (≥0,750), normal (0,749 - 0,650) e hiperdivergente (≤0,649). A construção de modelos 3D, representativos da região da SM, foi realizada com o auxílio do software ITK-SNAP. Os dentes presentes nesta região, incisivos, caninos e pré-molares inferiores, foram separados do modelo por técnica de segmentação semi-automática, seguida de refinamento manual. Em seguida, foram obtidos modelos 3D somente com o tecido ósseo, possibilitando a mensuraçãodo volume ósseo em mm3 (VOL) e da densidade radiográfica, pela média de intensidade dos voxels (Mvox). No programa Geomagic Studio 10 foi feita uma superposição anatômica dos modelos 3D em bestfit para estabelecer um plano de corte padronizado na linha média. Para cada sínfise foi medida a altura (Alt), a largura (Larg) e calculado o índice de proporção entre altura e largura (PAL). A avaliação da presença de defeitos alveolares foi feita diretamente na mandíbula,obtendo-se a média de todas as alturas ósseas alveolares (AltOss) e a média da dimensão das deiscências presentes (Medef). O índice de correlação intra-classe (ICC) com valores entre 0,923 a 0,994,indicou alta reprodutibilidade e confiabilidade das variáveis medidas. As diferenças entre os grupos, determinados pelas classificações do padrão facial (IF, FMA e IAF), foram avaliadas através da análise de variância (oneway ANOVA) seguida do teste post-hoc de Tukey. O grau de associação entre o padrão facial e as variáveis Vol, Mvox, PAL, Alt, Larg, AltOss e Medef foi avaliado pelo coeficiente de correlação de Pearson com um teste t para r. Os resultados indicaram ausência de diferença ou associação entre o volume, densidade radiográfica e presença de defeitos alveolares da SM e o padrão facial quando determinado pelo IF, FMA e IAF. Verificou-se tendência de SM mais longas nos indivíduos com face alongada, porém a largura não mostrou associação com o padrão facial. Estes resultados sugerem que as classificações utilizadas para determinar o padrão facial não representam satisfatoriamente o caráter 3D da face humana e não estão associadas com a morfologia da SM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho o processo não linear de transmissão de calor condução-radiação é abordado num contexto bidimensional plano e simulado com o uso de um esquema linear em diferenças finitas. O problema original é tratado como o limite de uma sequencia de problemas lineares, do tipo condução-convecção. Este limite, cuja existência é comprovada, é facilmente obtido a partir de procedimentos básicos, accessíveis a qualquer estudante de engenharia, permitindo assim o emprego de hipóteses mais realistas, já que não se tem o limitante matemático para a abordagem numérica de uma equação diferencial parcial elíptica. Neste trabalho foi resolvido o problema de condução de calor em regime permanente em uma placa com condições de contorno convectivas e radioativas utilizando-se o software MatLab, vale ressaltar, que a mesma metodologia é aplicável para geometrias mais complexas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jogos educacionais constituem em uma importante ferramenta de ensino na área de Engenharia de Software, onde, muitas vezes, os alunos não passam por nenhum mecanismo de treinamento prático. Um jogo educacional de qualidade tem que ter objetivos educacionais bem definidos, motivar os alunos e efetivar a aprendizagem dos conteúdos. A aplicação de jogos no Ensino de Engenharia de Software deve ser realizada de forma sistemática e controlada com base em avaliação. A técnica Estatística de Experimentação permite a medição e a análise das variáveis envolvidas no processo de aplicação de jogos para que estes possam ser aplicados com qualidade. Para definir melhor os experimentos no uso de jogos para o ensino de Engenharia de Software, este trabalho propõe diretrizes para o planejamento de experimentos em jogos educacionais, de forma que permita verificar a influência e a significância da utilização desses jogos no ensino e aprendizado dos conceitos de Engenharia de Software. Um experimento com o SimulES-W foi realizado seguindo essas diretrizes, onde foi possível ser demonstrada sua aplicabilidade e simplicidade em sua definição. A experiência de uso do SimulES-W mostra que aprender com jogos de computador é divertido, interativo e que, apesar dos resultados obtidos não serem significativos estatisticamente, de certa forma contribui para o ensino da Engenharia de Software, não sendo necessariamente um conhecimento prévio do conteúdo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de sistemas computacionais para armazenamento, tratamento de dados e produção de informação, disseminou-se de maneira crescente nos últimos anos, e neste cenário estão incluídos os Sistemas de Informações Geográficas, os SIGs. A utilização de informação geográfica com acesso por computador é hoje a realidade de ambientes corporativos, entidades governamentais, escolas e residências. Esta dissertação apresenta uma proposta de modelagem de elementos de zoneamento urbano, baseada em uma ontologia de domínio. Ontologias são representadas como classes e atributos de um dado domínio. Na proposta apresentada, estas classes são exportadas para o formato XMI, resguardando as definições de classes, atributos e relacionamentos do domínio analisado e compondo um repositório de classes, permitindo, teoricamente, sua reutilização. Como exemplo da proposta, foi construída uma ontologia do Zoneamento Urbano do município de Macaé-RJ, seguindo a proposta do Plano Diretor Municipal, usando o editor Protégé. A ontologia construída foi exportada para o formato XMI, sendo a seguir criado um diagrama de classes, obtido através da importação das classes pelo software para modelagem de sistemas baseados no paradigma da OO, ArgoUML. Tal importação permite que a ontologia construída fique disponível na forma de um pacote de classes, que pode ser utilizado por aplicações que se baseiem no paradigma da OO para o desenvolvimento de sistemas de informação. Como forma de mostrar a utilização destas classes foi desenvolvido um protótipo utilizando o software ALOV Map, que oferece a visualização destas classes, na Web, como mapas temáticos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo sobre a largura de decaimento total do bóson de Higgs através do canal H→ ZZ → (4e, 4, 2e2). Segundo o Modelo Padrão da Física de Partículas Elementares, um bóson de Higgs com massa de 126 GeV deve ter uma largura de decaimento total ΓH = 4.15 MeV, muito abaixo da resoluções dos experimentos instalados no LHC. Isto impede uma medida direta sobre os eventos da ressonância. Recentemente foi proposto limitar ΓH a partir da relação entre a taxa de eventos observados na região da ressonância e na região off-shell. Utilizando o pacote de análise desenvolvido pela colaboração CMS obteve-se um limite de ΓH < 31.46(12.82) MeV em 95(68.3)% CL combinando os dados coletados pelo LHC em colisões pp em √s = 7 TeV (5.1fb-1) e em √s = 8 TeV (19.7fb -1).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O gergelim (Sesamum indicum L.) é considerado uma das principais oleaginosas cultivadas mundialmente, fonte de lipídios, proteínas, minerais e vitaminas e antioxidantes importantes para a saúde humana. São poucos os estudos que analisaram as características químicas do gergelim. O objetivo deste trabalho foi caracterizar a composição química das diferentes marcas comerciais de sementes de gergelim (branco e negro), da farinha de gergelim, óleo de gergelim bruto e leite de gergelim negro. Este estudo foi realizado em laboratórios do Instituto de Nutrição e do Instituto de Química da UERJ e em laboratório na cidade de Campinas, em São Paulo. Foram realizadas análises, na farinha e nas sementes, de composição centesimal, fibras, cálcio, magnésio, zinco, cobre, potássio, manganês, vitamina E, betacaroteno e ácidos graxos. No óleo e no leite, foram analisados minerais, exceto cálcio e magnésio, e vitaminas E, betacaroteno, ácidos graxos e, no óleo, índices de acidez e peróxido. Avaliações microbiológicas também foram realizadas nas sementes de gergelim branco e negro e na farinha. Os resultados foram submetidos à análise de variância (ANOVA), com pós teste de Tukey para comparação das médias entre os grupos e para comparar dois grupos foi utilizado o teste t. O intervalo de confiança foi de 95%. Foi utilizado o software GraphPad Prism 5. Foram observadas diferenças significativas entre as diferentes marcas das sementes, assim como diferenças entre a farinha e as sementes de gergelim negro e branco, em relação à grande maioria das análises realizadas. O óleo de gergelim apresentou excelente padrão de identidade e qualidade, além de ótimo perfil de ácidos graxos, dentro das recomendações da legislação, apresentando-se como a melhor fonte de vitamina E dentro os produtos analisados. O gergelim foi considerado rico em cálcio, tendo o gergelim negro como a principal fonte (983,25 mg/100g) com grande diferença significativa em relação ao gergelim branco (p<0,0001), além de ser a principal fonte de fibras insolúveis (27,71%), o que faz com que o gergelim negro possa ter alegações de propriedades funcionais. A farinha de gergelim foi considerada a principal fonte de cobre (2,18 mg/100g) e magnésio (388,00 mg/100g), apresentando diferença significativa com a semente negra (p<0,05). O óleo de gergelim foi a principal fonte de potássio (16%) e vitamina E (28,34 mg/100g). Além disso, foi considerado fonte de ácido graxo monoinsaturado oleico e poli-insaturado linoleico, com 47,62 % e 35,32 %, respectivamente, com diferenças significativas em relação aos outros produtos (p<0,0001) e baixa quantidade de ômega 3. Em relação às avaliações microbiológicas na farinha e sementes, todos os resultados mostraram que os produtos encontram-se dentro dos critérios microbiológicos estabelecidos pela legislação e, portanto, próprios para o consumo humano. Nosso estudo caracterizou a composição nutricional de diferentes produtos de gergelim que apresentaram características físicas, químicas e microbiológicas importantes e adequadas à saúde humana, com boas quantidades de cálcio, magnésio, cobre, fibras alimentares e ácidos graxos insaturados, podendo contribuir para a aplicabilidade clínica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A realização da Internet das Coisas (Internet of Things, IoT) requer a integração e interação de dispositivos e serviços com protocolos de comunicação heterogêneos. Os dados gerados pelos dispositivos precisam ser analisados e interpretados em concordância com um modelo de dados em comum, o que pode ser solucionado com o uso de tecnologias de modelagem semântica, processamento, raciocínio e persistência de dados. A computação ciente de contexto possui soluções para estes desafios com mecanismos que associam os dados de contexto com dados coletados pelos dispositivos. Entretanto, a IoT precisa ir além da computação ciente de contexto, sendo simultaneamente necessário soluções para aspectos de segurança, privacidade e escalabilidade. Para integração destas tecnologias é necessário o suporte de uma infraestrutura, que pode ser implementada como um middleware. No entanto, uma solução centralizada de integração de dispositivos heterogêneos pode afetar escalabilidade. Assim esta integração é delegada para agentes de software, que são responsáveis por integrar os dispositivos e serviços, encapsulando as especificidades das suas interfaces e protocolos de comunicação. Neste trabalho são explorados os aspectos de segurança, persistência e nomeação para agentes de recursos. Para este fim foi desenvolvido o ContQuest, um framework, que facilita a integração de novos recursos e o desenvolvimento de aplicações cientes de contexto para a IoT, através de uma arquitetura de serviços e um modelo de dados. O ContQuest inclui soluções consistentes para os aspectos de persistência, segurança e controle de acesso tanto para os serviços de middleware, como para os Agentes de Recursos, que encapsulam dispositivos e serviços, e aplicações-clientes. O ContQuest utiliza OWL para a modelagem dos recursos e inclui um mecanismo de geração de identificadores únicos universais nas ontologias. Um protótipo do ContQuest foi desenvolvido e validado com a integração de três Agentes de Recurso para dispositivos reais: um dispositivo Arduino, um leitor de RFID e uma rede de sensores. Foi também realizado um experimento para avaliação de desempenho dos componentes do sistema, em que se observou o impacto do mecanismo de segurança proposto no desempenho do protótipo. Os resultados da validação e do desempenho são satisfatórios

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O teste de caminhada em seis minutos (TC6M) avalia a capacidade respiratória durante o exercício. Recentemente, o teste do degrau em seis minutos (TD6M) está sendo estudado como uma proposta para essa mesma avaliação. Diante do exposto, o desenvolvimento de uma equação de referência se torna importante. O objetivo desse estudo foi desenvolver uma equação de referência padrão para o Teste do Degrau em Seis minutos. Esse estudo foi do tipo transversal, em que foram selecionados 452 indivíduos. Após a aplicação dos critérios de inclusão/exclusão, foram selecionados 326 sujeitos saudáveis e sedentários com idade entre 20 e 80 anos. Para serem considerados saudáveis, os participantes não podiam ter história de doenças (exceto hipertensão arterial sistêmica ou diabetes mellitus em tratamento) e foram submetidos à radiografia de tórax, espirometria e eletrocardiograma, que deveriam ser normais. O nível de sedentarismo foi avaliado através do International Physical Activity Questionnaire (IPAQ). Foram coletados os seguintes dados demográficos: idade, peso e altura. Todos os indivíduos realizaram TD6M na sua própria cadência (autocadenciado) em um degrau de 16,5 cm de altura, 65 de largura e 30 cm de comprimento. O número de subidas e descidas foi contado por um pedômetro digital. Foram mensuradas a pressão arterial, a frequência cardíaca e a saturação de oxigênio, antes e depois do TD6M. A análise estatística foi realizada pelo software STATA 12.0, e as equações foram desenvolvidas pelo modelo estatístico de regressão linear múltipla. Como resultado, observou-se que os participantes apresentaram exames normais, sendo 135 homens e 191 mulheres. O IPAQ demonstrou 157 ativos, 114 irregularmente ativos e 40 inativos, sendo que 14 indivíduos não responderam. A análise da distância alcançada em relação à idade e à diferença da frequência cardíaca tanto para homens quanto para mulheres mostrou significância estatística, demonstrando a sua importância para o desenvolvimento das equações para cada gênero. Para mulheres: Distância (m) = 88,83 - [(FC final- FC inicial)* 0,23] (Idade *0,37); para homens: Distância (m)= 110,20 - [(FC final- FC inicial)*0,18] (Idade * 0,59). O estudo concluiu que as equações de referência desenvolvidas nesse estudo foram realizadas em uma população de indivíduos saudáveis e sedentários e pode ser usada como padrão de referência para o TD6M.