12 resultados para Validated Interval Software

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diferentes organizações públicas e privadas coletam e disponibilizam uma massa de dados sobre a realidade sócio-econômica das diferentes nações. Há hoje, da parte do governo brasileiro, um interesse manifesto de divulgar uma gama diferenciada de informações para os mais diversos perfis de usuários. Persiste, contudo, uma série de limitações para uma divulgação mais massiva e democrática, entre elas, a heterogeneidade das fontes de dados, sua dispersão e formato de apresentação pouco amigável. Devido à complexidade inerente à informação geográfica envolvida, que produz incompatibilidade em vários níveis, o intercâmbio de dados em sistemas de informação geográfica não é problema trivial. Para aplicações desenvolvidas para a Web, uma solução são os Web Services que permitem que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis. Neste sentido, o objetivo do trabalho é mostrar as possibilidades de construção de portais usando software livre, a tecnologia dos Web Services e os padrões do Open Geospatial Consortium (OGC) para a disseminação de dados espaciais. Visando avaliar e testar as tecnologias selecionadas e comprovar sua efetividade foi desenvolvido um exemplo de portal de dados sócio-econômicos, compreendendo informações de um servidor local e de servidores remotos. As contribuições do trabalho são a disponibilização de mapas dinâmicos, a geração de mapas através da composição de mapas disponibilizados em servidores remotos e local e o uso do padrão OGC WMC. Analisando o protótipo de portal construído, verifica-se, contudo, que a localização e requisição de Web Services não são tarefas fáceis para um usuário típico da Internet. Nesta direção, os trabalhos futuros no domínio dos portais de informação geográfica poderiam adotar a tecnologia Representational State Transfer (REST).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação foi desenvolvido o sistema SAQUA (Sistema para Análise da Qualidade das Águas Fluviais), que permite o acompanhamento dos dados de séries históricas de parâmetros físico-químicos para análise da qualidade de águas fluviais. A alimentação do sistema SAQUA se dá a partir do arquivo tipo texto gerado no Hidroweb, sistema de banco de dados hidrológicos da ANA (Agência Nacional de Águas), disponibilizado na internet. O SAQUA constitui uma interface que permite a análise espaço-temporal de parâmetros de qualidade da água específicos definidos pelo usuário. A interface foi construída utilizando o servidor de mapas Mapserver, as linguagens HTML e PHP, além de consultas SQL e o uso do servidor Web Apache. A utilização de uma linguagem dinâmica como o PHP permitiu usar recursos internos do Mapserver por meio de funções que interagem de forma mais flexível com códigos presentes e futuros, além de interagir com o código HTML. O Sistema apresenta como resultado a representação gráfica da série histórica por parâmetro e, em mapa, a localização das estações em análise também definidas pelo usuário, geralmente associadas a uma determinada região hidrográfica. Tanto na representação gráfica da série temporal quanto em mapa, são destacados a partir de código de cores a estação de monitoramento e a observação em que os limites estabelecidos na resolução CONAMA 357/05 não foi atendido. A classe de uso da resolução CONAMA que será usada na análise também pode ser definida pelo usuário. Como caso de estudo e demonstração das funções do SAQUA foi escolhida a bacia hidrográfica do rio Paraíba do Sul, localizada na região hidrográfica Atlântico Sudeste do Brasil. A aplicação do sistema demonstrou ótimos resultados e o potencial da ferramenta computacional como apoio ao planejamento e à gestão dos recursos hídricos. Ressalta-se ainda, que todo o sistema foi desenvolvido a partir de softwares disponibilizados segundo a licença GPL de software livre, ou seja, sem custo na aquisição de licenças, demonstrando o potencial da aplicação destas ferramentas no campo dos recursos hídricos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A constituição de uma base de dados normativa da marcha é essencial para o diagnóstico e o tratamento de padrões atípicos da locomoção (SUTHERLAND et al., 1997). Não obstante, são escassas as informações relativas aos padrões normais da marcha de crianças (GANLEY e POWERS, 2005), carência ainda mais evidente no tocante à produção acadêmica sobre o padrão biomecânico da locomoção da população de crianças brasileiras. Nesse sentido, especialistas em análise de marcha alertam para o fato que crianças de diferentes populações podem exibir diferentes padrões de marcha de acordo com os grupos étnicos das quais foram extraídas (MORENO-HERNÁNDEZ et al., 2010). Assim sendo, o objetivo do presente estudo foi descrever o padrão biomecânico da marcha de crianças hígidas brasileiras entre 6 e 11 anos de idade. Cento e vinte e duas crianças hígidas, entre seis e 11 anos de idade foram aleatoriamente recrutadas de um universo de 328 alunos. Os sujeitos foram alocados em três grupos etários: Grupo 1 (6-7 anos), Grupo 2 (8-9 anos) e Grupo 3 (10-11 anos). Para o registro das imagens das marchas das crianças foi utilizado um sistema de captura bidimensional de movimento a uma freqüência de aquisição de 30 Hz, composto por uma câmera Sony modelo HC 46 posicionada ortogonalmente a 6 metros da pista. Marcadores esféricos reflexivos de 20mm de diâmetro foram fixados em ambos os lados do corpo dos participantes. Os valores em bruto das coordenadas dos marcadores foram transformadas em coordenadas globais 2D (CALDWELL et al., 2004) e processadas no software SkillSpector (Versão 1.0). A estratégia de Hof (1996) foi utilizada para a normalização dos dados da marcha. Os comprimentos de passo e passada apresentaram uma tendência de aumento com o avanço da idade até 8-9 anos de idade, ao passo que a cadência dos passos apresentou uma tendência de diminuição até o mesmo período. Os números não-dimensionais não apresentaram qualquer tendência de alteração com o avanço da idade. Os três grupos etários apresentaram trajetórias angulares articulares semelhantes. O presente estudo constitui ação pioneira no que tange à descrição do padrão cinemático da marcha de crianças hígidas brasileiras entre 6 e 11 anos de idade. Assim sendo, consideramos que um primeiro passo foi dado no sentido da constituição de uma base de dados normativa da locomoção desses indivíduos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A utilização de sistemas de informações geográficas via Web (Sigweb) tem crescido nos últimos anos pela facilidade na manipulação e visualização de informações de diferentes lugares através da Internet. O objetivo deste estudo é realizar testes de sistemas de informações geográficas na Internet com ênfase na técnica funcional para avaliar a funcionalidade, usabilidade, a navegabilidade dos programas conhecidos como Sigweb prontos para usar. Para tanto, foi necessária a identificação dos casos de uso dos programas propostos para o estudo. Como resultado se pode conferir o comportamento dos sistemas durante os testes, além de distinguir as características de cada SigWeb e as dificuldades encontradas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na década de 90 com o aumento da capacidade de processamento e memória dos computadores, surgiu a fotogrametria digital, que tem como objetivo principal o mapeamento automático das feições naturais e artificiais do terreno, utilizando a imagem fotogramétrica digital como fonte primária de dados. As soluções fotogramétricas se tornaram mais compactas e versáteis. A estação fotogramétrica digital educacional E-FOTO é um projeto multidisciplinar, em desenvolvimento no laboratório de Fotogrametria Digital da Universidade do Estado do Rio de Janeiro, que se baseia em dois pilares: autoaprendizado e gratuidade. Este trabalho tem o objetivo geral de avaliar a qualidade das medições fotogramétricas utilizando a versão integrada 1.0β do E-FOTO. Para isso foram utilizados dois blocos de fotografias de regiões distintas do planeta: um bloco de fotografias (2005) do município de Seropédica-RJ e um bloco de fotografias antigas (1953) da região de Santiago de Compostela, na Espanha. Os resultados obtidos com o E-FOTO foram comparados com os resultados do software comercial de fotogrametria digital Leica Photogrammetry Suite (LPS 2010) e com as coordenadas no espaço-objeto de pontos medidos com posicionamento global por satélite (verdade de campo). Sendo possível avaliar as metodologias dos softwares na obtenção dos parâmetros das orientações interior e exterior e na determinação da exatidão das coordenadas no espaço-objeto dos pontos de verificação obtidas no módulo estereoplotter versão 1.64 do E-FOTO. Os resultados obtidos com a versão integrada 1.0β do E-FOTO na determinação dos parâmetros das orientações interior e exterior e no cálculo das coordenadas dos pontos de verificação, sem a inclusão dos parâmetros adicionais e a autocalibração são compatíveis com o processamento realizado com o software LPS. As diferenças dos parâmetros X0 e Y0 obtidos na orientação exterior com o E-FOTO, quando comparados com os obtidos com o LPS, incluindo os parâmetros adicionais e a autocalibração da câmara fotogramétrica, não são significativas. Em função da qualidade dos resultados obtidos e de acordo com o Padrão de Exatidão Cartográfica, seria possível obter um documento cartográfico Classe A em relação à planimetria e Classe B em relação à altimetria na escala 1/10.000, com o projeto Rural e Classe A em relação à planimetria e Classe C em relação à altimetria na escala 1/25.000, com o Projeto Santiago de Compostela. As coordenadas tridimensionais (E, N e H) dos pontos de verificação obtidas fotogrametricamente no módulo estereoplotter versão 1.64 do E-FOTO, podem ser consideradas equivalentes as medidas com tecnologia de posicionamento por satélites.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A especificação dos requisitos de software pressupõe que se conheçam os requisitos do sistema do que será parte. Os requisitos do sistema, por sua vez, pressupõem o conhecimento do negócio (business) onde o sistema será utilizado. Para que estes conhecimentos sejam obtidos é importante o envolvimento dos stakeholders tanto no nível de sistema quanto no nível de negócio. As literaturas sobre Engenharia de Requisitos, Engenharia de Software e Engenharia de Sistemas concordam que o envolvimento dos stakeholders é fundamental. O tratamento dispensado ao assunto, no entanto, é pequeno, dada a importância do tema. Esta dissertação, utilizando conceitos da Engenharia de Métodos Situacionais e de Design Science, apresenta o ZEP Framework, um artefato, produzido com o software EPF Composer, que permite a criação de métodos para envolver o stakeholder. Estes métodos, para serem criados, devem levar em consideração as peculiaridades da organização, dos recursos disponíveis e do projeto em si. São apresentados, ainda, alguns cenários, na área de Turismo, como exemplos da utilização do framework.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tecnologia da informação (TI) transformou o mundo nas últimas décadas e suas contribuições no processamento e disseminação da informação provocaram mudanças radicais no modo de viver das pessoas e afetou profundamente a gestão e a estrutura das organizações. Neste novo cenário, a literatura de negócios vem apresentando registros de desperdício de investimentos na área de tecnologia da informação. As dificuldades em reconhecer valor nos investimentos em TI e os desafios enfrentados na gestão de equipes de desenvolvimento de software são aspectos considerados no problema a ser pesquisado, a saber: a área de TI carece de sistemas de controle gerencial que poderiam minimizar riscos de desperdício de recursos, de baixa produtividade ou de fracasso na implantação do sistema a ser desenvolvido?O objetivo geral desta pesquisa é investigar as dificuldades enfrentadas pelas equipes de desenvolvimento de software para avaliar se há ou não desperdício de recursos, segundo a percepção dos entrevistados e, ainda, se há ou não carência de controle gerencial. Investigar quais poderiam ser os indicadores mais adequados para um sistema de controle gerencial voltados para esta área de atuação da TI e mapear fatores de sucesso estão entre os objetivos específicos da pesquisa. Do ponto de vista metodológico, esta é uma pesquisa exploratória que adota o procedimento de estudo de caso baseado em análise qualitativa. Os resultados alcançados confirmam o problema de desperdício de recursos e de baixa produtividade nas equipes de TI da empresa analisada e apontam para a carência de mecanismos ou processos de controle gerencial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O contexto da era da informação exige novas habilidades para competir com sucesso, tanto para empresas industriais como para as de serviços. Desde o seu surgimento, a Engenharia de Software tem enfrentado o desafio em estimar, controlar e gerenciar custos no processo de desenvolvimento de software. Os custos são parte de um projeto de software e nem sempre são claramente mensurados. Algumas desenvolvedoras de software são caracterizadas como prestadoras de serviços e as organizações que prestam serviços possuem as mesmas dificuldades em termos gerenciais que as indústrias, elas precisam de sistemas de gestão adequados para gerir seus custos, logo seus recursos. Nesse contexto é que os sistemas de informações contábeis estão inseridos, fornecendo respostas que os gestores necessitam para tomar decisões. Os custos são exemplos desse tipo de informação, pois o seu conhecimento é indispensável para uma boa gerência dos recursos organizacionais. O Custeio Baseado em Atividades (ABC) é uma ferramenta contábil útil para o gerenciamento estratégico dos custos uma vez que os sistemas de custeio tradicionais já não atendem essa necessidade das organizações. Diante desse cenário, o objetivo geral dessa dissertação é aplicar a metodologia de custeio baseado em atividades em um projeto de desenvolvimento de software com a finalidade de gestão de custos. Este pesquisa caracteriza-se como qualitativa descritiva e faz uso do método do estudo de caso. Através desse estudo foi possível comprovar a utilidade do ABC como instrumento de auxílio na gestão de custos nas organizações que prestam serviços em desenvolvimento de software, pois possibilita a visualização da maneira que os recursos são consumidos pelas atividades que agregam e não agregam valor ao negócio e ao cliente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jogos educacionais constituem em uma importante ferramenta de ensino na área de Engenharia de Software, onde, muitas vezes, os alunos não passam por nenhum mecanismo de treinamento prático. Um jogo educacional de qualidade tem que ter objetivos educacionais bem definidos, motivar os alunos e efetivar a aprendizagem dos conteúdos. A aplicação de jogos no Ensino de Engenharia de Software deve ser realizada de forma sistemática e controlada com base em avaliação. A técnica Estatística de Experimentação permite a medição e a análise das variáveis envolvidas no processo de aplicação de jogos para que estes possam ser aplicados com qualidade. Para definir melhor os experimentos no uso de jogos para o ensino de Engenharia de Software, este trabalho propõe diretrizes para o planejamento de experimentos em jogos educacionais, de forma que permita verificar a influência e a significância da utilização desses jogos no ensino e aprendizado dos conceitos de Engenharia de Software. Um experimento com o SimulES-W foi realizado seguindo essas diretrizes, onde foi possível ser demonstrada sua aplicabilidade e simplicidade em sua definição. A experiência de uso do SimulES-W mostra que aprender com jogos de computador é divertido, interativo e que, apesar dos resultados obtidos não serem significativos estatisticamente, de certa forma contribui para o ensino da Engenharia de Software, não sendo necessariamente um conhecimento prévio do conteúdo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O gergelim (Sesamum indicum L.) é considerado uma das principais oleaginosas cultivadas mundialmente, fonte de lipídios, proteínas, minerais e vitaminas e antioxidantes importantes para a saúde humana. São poucos os estudos que analisaram as características químicas do gergelim. O objetivo deste trabalho foi caracterizar a composição química das diferentes marcas comerciais de sementes de gergelim (branco e negro), da farinha de gergelim, óleo de gergelim bruto e leite de gergelim negro. Este estudo foi realizado em laboratórios do Instituto de Nutrição e do Instituto de Química da UERJ e em laboratório na cidade de Campinas, em São Paulo. Foram realizadas análises, na farinha e nas sementes, de composição centesimal, fibras, cálcio, magnésio, zinco, cobre, potássio, manganês, vitamina E, betacaroteno e ácidos graxos. No óleo e no leite, foram analisados minerais, exceto cálcio e magnésio, e vitaminas E, betacaroteno, ácidos graxos e, no óleo, índices de acidez e peróxido. Avaliações microbiológicas também foram realizadas nas sementes de gergelim branco e negro e na farinha. Os resultados foram submetidos à análise de variância (ANOVA), com pós teste de Tukey para comparação das médias entre os grupos e para comparar dois grupos foi utilizado o teste t. O intervalo de confiança foi de 95%. Foi utilizado o software GraphPad Prism 5. Foram observadas diferenças significativas entre as diferentes marcas das sementes, assim como diferenças entre a farinha e as sementes de gergelim negro e branco, em relação à grande maioria das análises realizadas. O óleo de gergelim apresentou excelente padrão de identidade e qualidade, além de ótimo perfil de ácidos graxos, dentro das recomendações da legislação, apresentando-se como a melhor fonte de vitamina E dentro os produtos analisados. O gergelim foi considerado rico em cálcio, tendo o gergelim negro como a principal fonte (983,25 mg/100g) com grande diferença significativa em relação ao gergelim branco (p<0,0001), além de ser a principal fonte de fibras insolúveis (27,71%), o que faz com que o gergelim negro possa ter alegações de propriedades funcionais. A farinha de gergelim foi considerada a principal fonte de cobre (2,18 mg/100g) e magnésio (388,00 mg/100g), apresentando diferença significativa com a semente negra (p<0,05). O óleo de gergelim foi a principal fonte de potássio (16%) e vitamina E (28,34 mg/100g). Além disso, foi considerado fonte de ácido graxo monoinsaturado oleico e poli-insaturado linoleico, com 47,62 % e 35,32 %, respectivamente, com diferenças significativas em relação aos outros produtos (p<0,0001) e baixa quantidade de ômega 3. Em relação às avaliações microbiológicas na farinha e sementes, todos os resultados mostraram que os produtos encontram-se dentro dos critérios microbiológicos estabelecidos pela legislação e, portanto, próprios para o consumo humano. Nosso estudo caracterizou a composição nutricional de diferentes produtos de gergelim que apresentaram características físicas, químicas e microbiológicas importantes e adequadas à saúde humana, com boas quantidades de cálcio, magnésio, cobre, fibras alimentares e ácidos graxos insaturados, podendo contribuir para a aplicabilidade clínica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A realização da Internet das Coisas (Internet of Things, IoT) requer a integração e interação de dispositivos e serviços com protocolos de comunicação heterogêneos. Os dados gerados pelos dispositivos precisam ser analisados e interpretados em concordância com um modelo de dados em comum, o que pode ser solucionado com o uso de tecnologias de modelagem semântica, processamento, raciocínio e persistência de dados. A computação ciente de contexto possui soluções para estes desafios com mecanismos que associam os dados de contexto com dados coletados pelos dispositivos. Entretanto, a IoT precisa ir além da computação ciente de contexto, sendo simultaneamente necessário soluções para aspectos de segurança, privacidade e escalabilidade. Para integração destas tecnologias é necessário o suporte de uma infraestrutura, que pode ser implementada como um middleware. No entanto, uma solução centralizada de integração de dispositivos heterogêneos pode afetar escalabilidade. Assim esta integração é delegada para agentes de software, que são responsáveis por integrar os dispositivos e serviços, encapsulando as especificidades das suas interfaces e protocolos de comunicação. Neste trabalho são explorados os aspectos de segurança, persistência e nomeação para agentes de recursos. Para este fim foi desenvolvido o ContQuest, um framework, que facilita a integração de novos recursos e o desenvolvimento de aplicações cientes de contexto para a IoT, através de uma arquitetura de serviços e um modelo de dados. O ContQuest inclui soluções consistentes para os aspectos de persistência, segurança e controle de acesso tanto para os serviços de middleware, como para os Agentes de Recursos, que encapsulam dispositivos e serviços, e aplicações-clientes. O ContQuest utiliza OWL para a modelagem dos recursos e inclui um mecanismo de geração de identificadores únicos universais nas ontologias. Um protótipo do ContQuest foi desenvolvido e validado com a integração de três Agentes de Recurso para dispositivos reais: um dispositivo Arduino, um leitor de RFID e uma rede de sensores. Foi também realizado um experimento para avaliação de desempenho dos componentes do sistema, em que se observou o impacto do mecanismo de segurança proposto no desempenho do protótipo. Os resultados da validação e do desempenho são satisfatórios