14 resultados para flash card
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
A teoria magneto-hidrodinâmicos permite a estruturação de modelos computacionais, designados modelos MHDs, que são uma extensão da dinâmica dos fluidos para lidar com fluidos eletricamente carregados, tais como os plasmas, em que se precisa considerar os efeitos de forças eletromagnéticas. Tais modelos são especialmente úteis quando o movimento exato de uma partícula não é de interesse, sendo que as equações descrevem as evoluções de quantidades macroscópicas. Várias formas de modelos MHD têm sido amplamente utilizadas na Física Espacial para descrever muitos tipos diferentes de fenômenos de plasma, tais como reconexão magnética e interações de ventos estelares com diferentes objetos celestiais. Neste trabalho, o objetivo é analisar o comportamento de diversos fluxos numéricos em uma discretização de volumes finitos de um modelo numérico de MHD usando um esquema de malha entrelaçada sem separação direcional considerando alguns casos testes. Para as simulações, utiliza-se o código Flash, desenvolvido pela Universidade de Chicago, por ser um código de amplo interesse nas simulações astrofísicas e de fenômenos no espaço próximo à Terra. A metodologia consiste na inclusão de um fluxo numérico, permitindo melhoria com respeito ao esquema HLL.
Resumo:
A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo
Resumo:
O petróleo é uma mistura complexa consistindo em um número muito grande de hidrocarbonetos. A descrição completa de todos os hidrocarbonetos existentes nessas misturas é inviável experimentalmente ou consome tempo excessivo em simulações computacionais. Por esta razão, uma abordagem molecular completa para cálculos de propriedades dessas misturas é substituído por uma abordagem pseudo-componente ou por correlações entre propriedades macroscópicas. Algumas dessas propriedades são utilizadas de acordo com a regulamentação de venda de combustíveis, e.g., para gasolina. Dependendo do esquema de refino e do óleo cru utilizado para produção desse combustível, uma larga variedade de valores é encontrada para as propriedades de correntes de processo que compõe o combustível final. A fim de planejar com precisão adequada a mistura dessas correntes, modelos devem estar disponíveis para o cálculo preciso das propriedades necessárias. Neste trabalho, oito séries de combustíveis brasileiros e duas séries de combustíveis estrangeiros foram analisadas: frações de gasolina, querosene, gasóleo e diesel. As propriedades analisadas para as frações são: número de octano, teor de aromáticos, teor de enxofre, índice de refração, densidade, ponto de fulgor, ponto de fluidez, ponto de congelamento, ponto de névoa, ponto de anilina, pressão de vapor Reid e número de cetano. Diversas correlações foram avaliadas e os melhores desempenhos foram destacados, permitindo uma estimação precisa das propriedades do combustível avaliado. Um processo de re-estimação de parâmetros foi aplicado e novos modelos foram ajustados em comparação com os dados experimentais. Esta estratégia permitiu uma estimativa mais exata das propriedades analisadas, sendo verificada por um aumento considerável no desempenho estatístico dos modelos. Além disso, foi apresentado o melhor modelo para cada propriedade e cada série
Resumo:
A Dívida Ativa Municipal é considerada um crédito de fundamental importância para os entes públicos que se origina, principalmente, do não pagamento de tributos por parte dos contribuintes. A inscrição em dívida ativa significa a consolidação da dívida tributária e não tributária, representando um direito a receber do ente público. Este estudo tem como objetivo contribuir para o aperfeiçoamento do Controle sobre a Dívida Ativa, enfocando a participação dos Poderes Executivos municipais e do Poder Judiciário, com o intuito de melhorar a cobrança dessa receita. A metodologia utilizada recaiu sobre a pesquisa qualitativa, envolvendo municípios do Estado do Rio de Janeiro, através da combinação de pesquisas bibliográfica, documental e de campo, onde foram repassados questionários junto a pessoas relacionadas ao objeto deste estudo, como procuradores municipais, empresas privadas cobradoras de crédito, servidores do Poder Judiciário que atuam diretamente com a cobrança da dívida ativa, contribuintes que se encontram em débito com a Fazenda Pública e com a Coordenadoria de Controle da Receita Pública do TCE/RJ, com o intuito de se verificar a adoção de procedimentos que aperfeiçoem o controle de gestão sobra a dívida ativa, aumentando, assim, a arrecadação dessa receita pública, tanto na fase administrativa com na judicial. Os dados analisados demonstram que a ausência de leis mais rígidas na cobrança desses créditos, a impunidade referente aos contribuintes que não cumprem com suas obrigações, bem como aos gestores públicos que deixam de cobrar de forma eficiente esses créditos, as falhas do Poder Judiciário, ocasionadas pela ainda adoção do modelo burocrático de administração, responsável pela morosidade em realizar a cobrança da dívida ativa na fase judicial, bem como em não punir aqueles gestores públicos que causam perdas patrimoniais ao ente público, e, especialmente, os fatores políticos, servem de justificativa para se apontar a necessidade de estudos sobre a Dívida Ativa. Por fim, pode-se concluir que a curto prazo deve o poder judiciário, através de seu controle externo, utilizar-se da Lei de Improbidade Administrativa, que passou a ter ainda mais importância com o surgimento da Lei da Ficha Limpa, para obrigar os administradores públicos a realizar melhor controle de gestão sobre a dívida ativa. E, a médio e a longo prazo a instituição de legislação que determine a criação de Órgãos municipais para trabalharem exclusivamente com o controle da receita pública, em especial, com a cobrança da Dívida Ativa, contribuindo, desse modo, não apenas para uma melhor gestão sobre arrecadação municipal, mas também, para mudança cultural da Administração Pública brasileira, que muita ênfase despende ao Controle da Despesa Pública e pouco se volta à Gestão da Receita Pública.
Resumo:
As comunidades marinhas são afetadas por diversos fatores, que dentro do contexto de estrutura trófica, podem ser divididos em forças bottom-up (forças ascendentes), como por exemplo, a disponibilidade de nutrientes, e forças top-down (forças descendentes), como por exemplo, a predação. Além de modificações na estrutura das comunidades e populações de organismos, essas forças podem influenciar a produção de metabólitos secundários pelos organismos. O presente trabalho teve como objetivo avaliar o efeito das perturbações ambientais geradas pelas manipulações separadas e interativas de exclusão de macropredadores e enriquecimento com nutrientes sobre a estrutura e sobre as respostas metabólicas de comunidades marinhas incrustantes de substratos artificiais no costão rochoso de Biscaia, Baía da Ilha Grande, RJ. O desenho experimental utilizou blocos de concreto como substrato artificial, os quais foram espalhados aleatoriamente na região de infralitoral do costão rochoso. O experimento compreendeu o uso de blocos Controle (ausência de manipulação) e quatro tratamentos, todos com cinco réplicas cada. Os tratamentos foram: tratamento Exclusão de predação (gaiola contra a ação de macropredadores), tratamento Nutriente (sacos de fertilizante de liberação lenta), tratamento Nutriente + exclusão de predação (gaiola contra ação de macropredadores e sacos de fertilizante de liberação lenta) e o tratamento Controle de artefatos (gaiola semifechada para avaliar geração de artefatos). Uma área de 15 x 15 cm do bloco foi monitorada a cada 20 dias, totalizando dez medições. Foram utilizados métodos de monitoramento visual e digital de porcentagem de cobertura por espécie. O enriquecimento com nutrientes foi avaliado através de medições da concentração dos nutrientes Ortofosfato, Nitrato, Nitrito e Amônio na água do entorno do bloco. Para analisar os possíveis artefatos foi realizado experimento de fluxo de água (método Clod card) e a luminosidade dentro das gaiolas foi medida. Os dados demonstraram modificações na estrutura das comunidades bentônicas incrustantes dos substratos artificiais devido às manipulações realizadas, ou seja, pelo enriquecimento com nutrientes, pela exclusão de predação e pela interação entre os dois fatores (Nutriente + exclusão de predação). Além disso, diferenças metabólicas foram detectadas nas substâncias extraídas dos organismos dos diferentes tratamentos do experimento. Esses resultados indicam a existência de controle top-down e bottom-up sobre a comunidade bentônica do local.
Resumo:
A pesquisa detém sua atenção nos sentidos sociais e culturais dos meios de pagamento. Para tal, investiga dois domínios: o universo publicitário construído pelas empresas de tecnologias de pagamento (Visa e MasterCard) e outro prático, vivido por jovens universitários. Correlacionar e comparar as estratégias discursivas de apresentação dos cartões de crédito e os usos práticos desta ferramenta financeira tornou-se o ponto central do estudo. Primeiro, são examinados os sentidos dos meios de pagamento (em especial o cartão de crédito) atribuídos pelos especialistas - profissionais de marketing, planejadores de comunicação, redatores e diretores de arte, responsáveis pela promoção das ferramentas financeiras. Em seguida, concentra-se nos usos práticos dos jovens universitários, nos sentidos conferidos por estes aos cartões de crédito que usam. Comparar este dois domínios possibilita verificar a dificuldade de se falar sobre o dinheiro, o cartão de débito ou o cartão de crédito. Os meios de pagamento devem ser entendidos no plural, suas definições e funções são distintas e variam conforme aqueles que os utilizam.
Resumo:
No processo escolar de formação de leitores e escritores há um movimento ativo do sujeito com o texto, sendo o professor interlocutor e mediador desse processo. A presente pesquisa pôde verificar como a legitimação do conhecimento de mundo de sujeitos jovens e adultos com pouca ou nenhuma escolarização, em sala de aula, possibilitou o autorreconhecimento da condição de cada um como leitores e escritores. Para chegar a esse achado, investiguei práticas de leitura e escrita em uma classe de educação de jovens e adultos (EJA), buscando relacioná-las aos usos cotidianos da leitura e da escrita na vida dos sujeitos dessa classe. Busquei auxílio em contribuições teóricas de autores do campo da EJA, e de outros, cujos estudos são referência na área da leitura e da escrita e da formação de leitores e escritores, do mesmo modo que fui auxiliada na compreensão de como me valer de procedimentos metodológicos, para melhor capturar as revelações da prática pedagógica, durante o período de observação empreendido na classe. A abordagem teórico-metodológica adotada, de natureza qualitativa, contou com observações sistemáticas e instrumentos como o diário de campo, entrevistas semiestruturadas e uma ficha perfil dos sujeitos da pesquisa. Dispondo desses diversos recursos, pude perceber o processo de formação de leitores e escritores em uma turma já alfabetizada do Programa de Educação de Jovens e Adultos (PEJA) do município do Rio de Janeiro. Como reflexão final de meu estudo, arrisco afirmar que as práticas pedagógicas de leitura e escrita propostas pela professora na turma investigada rompiam com a lógica abissal (como nomeada por SANTOS, 2009), uma vez que as atividades levavam em conta a realidade e os conhecimentos dos sujeitos, não se restringindo a saberes escolares, considerados pela lógica hegemônica de hierarquia de mundo, como os únicos válidos. Outras questões, entretanto, nessas práticas de leitura e escrita puderam ser questionadas, como o fato de as atividades serem individuais, em maioria, apesar dos debates permanentes realizados no coletivo. Também o diálogo prioritariamente se dava entre professora e alunos, e não entre pares, o que restringia a horizontalidade da interlocução entre sujeitos. Por fim, reflexiono quanto à lógica escolar de organização do Programa, em que os avanços na aprendizagem têm sequência serial, o que põe em cheque concepções de continuum na EJA e, em última instância, do direito a aprender por toda a vida.
Resumo:
A crescente demanda por lubrificantes obtidos a partir de fontes renováveis vem incentivando a pesquisa por alternativas sustentáveis. O objetivo principal deste trabalho foi investigar a síntese de sebacato de dioctila a partir da reação de esterificação entre o ácido sebácico e o 1-octanol empregando biocatalisadores e catalisador químico convencional (ácido sulfúrico). Alguns parâmetros reacionais foram estudados: tipo de lipase comercial imobilizada (Novozym 435, Lipozyme RM IM e Lipozyme TL IM), temperatura, razão molar ácido/álcool, concentração de lipase, métodos de remoção da água do meio reacional. A reutilização da lipase Novozym 435 também foi avaliada. A conversão da reação foi determinada por cromatografia em fase gasosa. A lipase Novozym 435 apresentou os melhores resultados: 100% de conversão de ácido sebácico quando foi empregada razão molar ácido:álcool de 1:5 e 5% m/m de lipase, após 150 minutos de reação a 100C. O emprego de peneira molecular e vácuo não aumentou a conversão do ácido sebácico. O produto final foi caracterizado com relação à viscosidade, ao índice de viscosidade, ao ponto de fulgor, ao ponto de fluidez e ao índice de neutralização, e apresentou comportamento semelhante a um óleo naftênico
Resumo:
O objetivo deste estudo in vivo foi avaliar comparativamente três técnicas de clareamento de dentes polpados quanto ao grau de cor final alcançado, sensibilidade dental e satisfação pessoal de operadores e pacientes. Indivíduos jovens de mesma faixa etária e padrão de higiene bucal foram selecionados e divididos aleatoriamente entre os grupos (G1; n=7) caseiro, com regime de uso de 8 h/dia/4 semanas; (G2; n=7) consultório, com regime de clareamento de 4 sessões semanais de 2 aplicações de 15 min cada e; (G3; n=6) associado, com caseiro e consultório combinados. Para as técnicas caseira e de consultório foram utilizados peróxido de carbamida a 16% (WhitegoldHome/Dentsply) e peróxido de hidrogênio a 35% (Whitegold Office/Dentsply), respectivamente. Os registros de cor foram obtidos por um único operador antes e após o emprego da cada técnica utilizando escala de cores Vita Bleachedguide 3D-Master e máquina fotográfica digital profissional (EOS Rebel XT Canon), com ajustes de iluminação, flash e distância focal padronizados. O nível de clareamento foi avaliado por unidades de mudança de cor (luminosidade) na escala de cores, além do número de tons alcançados nas imagens digitais e mudança de cor no sistema CIE L*a*b* por meio do software ScanWhite. Os dados foram tratados estatisticamente pelos testes não paramétricos de Kruskal Wallis e dos sinais (p≤0,05). Os registros de sensibilidade dental trans e pós operatória e da satisfação pessoal dos operadores e pacientes foram preenchidos individualmente em questionário unidimensional ao final de cada sessão. Foram atribuídos escores para a avaliação final da sensibilidade dental, conforme: 0=ausente; 1=leve; 2=moderada e; 3=severa. Os dados foram tratados estatisticamente pelo teste Kruskal Wallis. As médias das variações de unidades de mudança de cor da escala Vita e do software foram, respectivamente: G1) 4,57 (IC1,34), 27,14 (IC12,03); G2) 2,86 (IC0,99), 21,29 (IC14,27); G3) 4 (IC1,82), 25,33 (IC10,70). Na comparação entre os métodos de avaliação de cor, os p-valores do teste dos sinais foram 0,453, 0,453 e 0,687 para os grupos 1, 2 e 3, respectivamente. As médias da variação total de cor (∆E) foram, respectivamente: G1) 8,79(IC4,18), G2) 7,10(IC3,53) e G3) 9,74 (IC4,07). Não foi determinada diferença estatisticamente significante entre os grupos. Os postos médios do nível de sensibilidade foram: G1 = 9,64; G2 = 11,58; e G3 = 10,43, e o p-valor = 0,807. Não houve diferença estatisticamente significante entre grupos. Conclui-se que as técnicas caseiro, consultório e associada foram igualmente eficazes quanto ao nível de cor final, de acordo com os métodos objetivos e subjetivos utilizados. O nível de sensibilidade dental foi o mesmo independentemente da técnica utilizada. Todos os indivíduos registraram satisfação ao final do clareamento.
Resumo:
Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.
Resumo:
As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.
Resumo:
Baseado em estudos de casos e em discussões teóricas, este trabalho analisa as relações entre a estética, a produção e a recepção de uma vertente do teatro produzido no Rio de Janeiro que se propõe manter-se além do entretenimento. O critério para a escolha dos casos estudados é o da inteligibilidade das relações entre estética e contexto sócio-econômico, a partir das próprias referências e vivências do pesquisador enquanto também artista e produtor teatral. A abordagem do teatro como fenômeno estético e cultural que interage com o meio sócio-econômico vale neste trabalho tanto para o teatro da contemporaneidade quanto em suas discussões históricas. A universalização da TV, a falta de público pagante para a arte e a ainda recente resposta do Estado como financiador universal da cultura aparecem aqui intimamente ligadas à proliferação e transformação de poéticas teatrais, principalmente no que concerne ao trabalho do ator em cena, sua formação, e a concepção que ele tem de sociedade e de seu papel dentro dela. Esta mirada a partir do fazer teatral questiona o valor de limites fixos entre arte e indústria cultural, ao sugerir como problemática a definição de arte e cultura na contemporaneidade. As relações de mútua legitimação entre a indústria da televisão e o teatro na cidade são acompanhadas desde a sua descoberta pelo Teatro dos Sete, seu apogeu nos anos 70 e 80, e sua subsequente crise no final da década de 80, quando a simbiose se transformou em competição e a TV passou a ditar as regras do mercado de atores. Os espetáculos escolhidos para análise nesta ótica são justamente O Mambembe de 1959 e A Maldição do Vale Negro, de 1988. Em seguida o texto apresenta um resumo de observações e pesquisas sobre sociologia da cultura, a sócio-economia do teatro e as políticas públicas na França. The Flash and Crash Days, de Gerald Thomas, é o espetáculo escolhido para abordar o início da era dos patrocínios no teatro carioca. A última parte da tese procura juntar os resultados obtidos nos estudos e algumas análises a discussões atuais sobre o teatro no Rio de Janeiro, ao comentar possíveis relações entre a estética e o contexto na cena experimental da zona sul da cidade, e a mudança ideológica e de valores que acompanha a ainda recente mudança de modos de produção. O olhar do teatro como negócio é confrontado por uma alternativa que sugere a abertura de novas perspectivas, através da inclusão de novos sujeitos, como oportunidade de renovação da cena carioca
Resumo:
A realização da Internet das Coisas (Internet of Things, IoT) requer a integração e interação de dispositivos e serviços com protocolos de comunicação heterogêneos. Os dados gerados pelos dispositivos precisam ser analisados e interpretados em concordância com um modelo de dados em comum, o que pode ser solucionado com o uso de tecnologias de modelagem semântica, processamento, raciocínio e persistência de dados. A computação ciente de contexto possui soluções para estes desafios com mecanismos que associam os dados de contexto com dados coletados pelos dispositivos. Entretanto, a IoT precisa ir além da computação ciente de contexto, sendo simultaneamente necessário soluções para aspectos de segurança, privacidade e escalabilidade. Para integração destas tecnologias é necessário o suporte de uma infraestrutura, que pode ser implementada como um middleware. No entanto, uma solução centralizada de integração de dispositivos heterogêneos pode afetar escalabilidade. Assim esta integração é delegada para agentes de software, que são responsáveis por integrar os dispositivos e serviços, encapsulando as especificidades das suas interfaces e protocolos de comunicação. Neste trabalho são explorados os aspectos de segurança, persistência e nomeação para agentes de recursos. Para este fim foi desenvolvido o ContQuest, um framework, que facilita a integração de novos recursos e o desenvolvimento de aplicações cientes de contexto para a IoT, através de uma arquitetura de serviços e um modelo de dados. O ContQuest inclui soluções consistentes para os aspectos de persistência, segurança e controle de acesso tanto para os serviços de middleware, como para os Agentes de Recursos, que encapsulam dispositivos e serviços, e aplicações-clientes. O ContQuest utiliza OWL para a modelagem dos recursos e inclui um mecanismo de geração de identificadores únicos universais nas ontologias. Um protótipo do ContQuest foi desenvolvido e validado com a integração de três Agentes de Recurso para dispositivos reais: um dispositivo Arduino, um leitor de RFID e uma rede de sensores. Foi também realizado um experimento para avaliação de desempenho dos componentes do sistema, em que se observou o impacto do mecanismo de segurança proposto no desempenho do protótipo. Os resultados da validação e do desempenho são satisfatórios
Resumo:
A relação causal entre métodos de projeto e a usabilidade de produtos de comunicação e informação foi o tema desse estudo que buscou identificar o estado da arte sobre um processo de projeto que resulte em mais usabilidade na web. A partir dessa identificação, avaliou-se as melhorias que poderiam ser adotadas nos processos de desenvolvimento de interfaces utilizados por uma equipe específica da Fundação Oswaldo Cruz (CTIC - Fiocruz). Entendeu-se que um método de projeto deve estar atualizado em relação aos conhecimentos de áreas como a Ergonomia, a Interação Humano-computador e o Design de Interação. Para isso, adotou-se a hipótese de que o processo de projeto deve combinar três aspectos: a) um significativo envolvimento do usuário ao longo do processo; b) o uso de sucessivas iterações para configurar o produto e c) uma combinação mínima de técnicas relacionadas a objetivos específicos de cada fase de uma abordagem de Design Centrado no Usuário. Para contribuir com o desenvolvimento de métodos e técnicas que melhorem a usabilidade, descreveu-se as características dos métodos registrados na literatura e praticados por profissionais externos à Fundação Oswaldo Cruz (Fiocruz). A partir dessas informações, o estudo direcionou-se para o segundo objetivo específico: identificar melhorias nos métodos e técnicas aplicáveis no caso do CTIC Fiocruz. Através da combinação da revisão de literatura e da pesquisa de campo foram produzidas informações sobre tipos de fluxo dos métodos, tipos de envolvimento dos usuários, quantidade e gravidade de problemas de usabilidade observadas pelos profissionais e a validade de base geral de método para diferentes produtos. A primeira rodada de entrevista foi realizada para melhor entender o contexto da hipótese e a relação entre suas variáveis. A segunda rodada identificou as características do processo de projeto utilizado no CTIC. A partir dessas informações, aplicou-se duas técnicas com profissionais externos. Um questionário on-line foi utilizado para levantar informações bem específicas, em sua maioria de características quantitativas. A última técnica aplicada foi um card sorting on-line que apresentou um caso de projeto em que os profissionais indicaram quais técnicas seriam utilizadas diante de dois cenários diferentes: um mais favorável e outro restritivo. A análise demonstrou que a maioria dos profissionais acredita que os problemas de usabilidade são consequência da falta de determinadas abordagens e técnicas. Por isso, esses profissionais combinam fluxos iterativos com um significativo envolvimento do usuário no processo. Foram sugeridas melhorias para o método utilizado no CTIC sintetizadas através de um processo de Design Centrado no Usuário como ponto de partida que aplica o conceito tradicional de usabilidade (performance). Assim que possível, esse processo deve ser aperfeiçoado ao incluir o conceito de experiência do usuário que considera também os aspectos emocionais e hedonômicos na interação.