996 resultados para Teste em sistemas de software
Resumo:
o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.
Resumo:
Este trabalho, apresentado sob forma de dissertação, apesar de limitado .ao universo da gestão dos recursos materiais - GRM, representa uma tentativa para a criação de meios para medir a eficiência e a eficácia da função gerencial. Foram contemplados dois segmentos do universo da GRM: as relações comerciais com os fornecedores e as atividades de gerenciamento interno das diversas funções técnico-administrativas. Nestas, atingimos um amplo espectro, indo desde a infra-estrutura gerencial até os respectivos custos operacionais. Foram consideradas as seguintes funções: • Planejamento e Controle • Aquisição de Material • Controle e Distribuição de Material • Qualidade e Desenvolvimento o desempenho de cada uma das funções é avaliado por meio de indicadores, resultantes da combinação de dados operacionais, tais como: produção, venda, número de empregados envolvidos, valor das aquisições realizadas, custos de aquisição e de estocagem, valor dos estoques, carga transportada, custos de controle de qualidade e outros relacionados à GRM de uma organização. Consideramos que três orientações deste tabalho apresentam certo grau de originalidade. A primeira refere-se ao ajustamento dos valores monetários envolvidos, a fim de adequá-los às características inflacionárias da nossa economia. A segunda é o tratamento estatístico dos dados para que sejam reduzidas eventuais distorções. Assim, teremos indicadores próximos da realidade, baseados em números correntes e expurgados de variações aleatórias. A terceira orientação é o uso da informática para proporcionar a maior disseminação possível dos indicadores, seja na entrada de dados, no ajustamento, no cálculo, na armazenagem, na recuperação, no tratamento estatístico e na análise e criação de padrões de desempenho gerencial. Como anexo à dissertação, estamos incluindo disquetes em 3 1/2" e 5 1/4", contendo software interativo, denominado SIGMAT - Sistema de Indicadores para a Avaliação do Desempenho da Gestão dos Recursos Materiais. Este aplicativo executa todas as propostas apresentadas na presente dissertação.
Resumo:
O objetivo desse estudo explano-exploratório é determinar os antecedentes à resistência a sistemas empresariais. Com esse intuito, por meio de levantamento bibliográfico: (a) conceituou-se o comportamento de resistência, (b) identificaram-se os fatores que influenciam o comportamento de resistência, (c) definiu-se o objeto do comportamento de resistência, (d) elaborou-se um meta-modelo contendo os fatores que influenciam o comportamento de resistência e (e) desenvolveu-se o questionário estruturado como instrumento de coleta de dados. Durante o período de aplicação do instrumento de coleta de dados foram obtidos 169 questionários válidos, preenchidos por gestores de tecnologia da informação. A partir dos dados obtidos, a pesquisa valeu-se das técnicas de análise fatorial exploratória, análise fatorial confirmatória e modelagem de equações estruturais para confirmar o modelo proposto por teorias do campo de gerenciamento de sistemas de informação. No entanto, verificou-se que o meta-modelo de resistência a sistemas empresariais, apresentando: (a) as características idiossincráticas das pessoas ou grupos, (b) as características dos sistemas a serem implantados e (c) a interação das características pessoais e do sistema com o contexto organizacional, subdividida em interação sócio-técnica e interação poder e política, não se confirmou na realidade estudada. Dessa forma, após modificações no meta-modelo inicial, identificou-se um modelo onde os fatores “Sistemas” e “Inclinação Pessoal” explicaram aproximadamente 49% da variância do fenômeno de comportamento de resistência a sistemas empresariais.
Resumo:
O trabalho a seguir objetivou o desenvolvimento de um meta-modelo de análise para estudo do fenômeno da resistência durante a implementação de um sistema de gerenciamento eletrônico de documentos (GED). O estudo foi conduzido por meio de uma abordagem quantitativa e explanatória e buscou elencar os principais expoentes da literatura acadêmica no tema da resistência. A partir de suas concepções, os fatores mais relevantes no campo da resistência contextualizada a um sistema de gerenciamento eletrônico de documentos foram evidenciados. O meta-modelo gerado, o qual serviu de base para a análise estatística, identificou os seguintes antecedentes ao comportamento de resistência: características pessoais, sistemas e interação. Este, por sua vez, divide-se na interação poder e política e na interação sócio-técnica. A partir da identificação desses vetores e montagem do meta-modelo, foi elaborado um questionário de investigação, o qual foi distribuído via Internet. Foram colhidas 133 respostas de usuários que tivessem vivenciado pelo menos uma experiência de implantação de um sistema de gerenciamento eletrônico de documentos. Os dados foram então submetidos a tratamento estatístico na ferramenta SPSS por meio de análise fatorial e regressão linear múltipla. Os resultados obtidos permitiram identificar os fatores de maior influência no comportamento de resistência e confirmar/refutar as hipóteses originalmente propostas. O meta-modelo gerado também promoveu a discussão dos resultados com base na teoria utilizada, gerando novos insights para o entendimento do comportamento de resistência no contexto do GED.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
Este estudo visa desenvolver um sistema portátil de radiocomunicação de radiação restrita, indicado para biotelemetria digital de curta distância aplicada ao Teste da Caminhada de Seis Minutos (TC6M) em pacientes com doença pulmonar obstrutiva crônica ou hipertensão pulmonar. A saturação periférica da hemoglobina (SpO2) e a freqüência cardíaca (FC) são monitoradas em tempo real. É utilizada a banda destinada a aplicações médicas, industriais e científicas (ISM), com freqüência de portadora em 916MHz e potência de transmissão de 0,75mW. Este sistema foi projetado para operar através de um enlace half duplex e codificação Manchester NRZ incorporando um protocolo para correção de erros do tipo automatic repeat request error com utilização de um código CRC-16 para detecção de erros. A velocidade máxima de transmissão de dados é de 115.2 kbps. O sistema é constituído de três partes: unidade portátil (Master), unidade estacionária (Slave) e software de visualização em tempo real. A unidade portátil recebe do oxímetro os parâmetros de monitorização que são transmitidos via enlace de rádio-freqüência. A interface da unidade estacionária com o software é feita através da porta de comunicação serial padrão RS-232. Os testes de laboratório e de campo demonstraram que o sistema de biotelemetria é adequado a realizar o TC6M com precisão de SpO2 de ±3 dígitos (com ±1 desvio padrão) e FC de ±3% ambos com taxa de Frame Error Rate < 10-4 (0,01%), sem restrigir os movimentos do usuário durante o processo de monitorização.
Resumo:
Sistemas computacionais de tempo-real são tipicamente construídos a partir de primitivas de sincronização que fornecem uma noção do tempo no objetivo de coordenar a execução múltiplos fluxos de instruções em um processador. Quando o processamento é centralizado, a base de tempo destas primitivas é extraída do oscilador local da plataforma, permitindo que as ações do sistema sejam devidamente ordenadas, respeitando restrições de tempo e causalidade. No entanto, em sistemas distribuídos o problema não pode ser resolvido desta forma em decorrência de imperfeições nos dispositivos físicos. Diferenças mínimas na freqüência de osciladores fazem com que as bases de tempo dos componentes divirjam cada vez mais ao longo do tempo, dificultando ou até mesmo impossibilitando um ordenamento consistente de eventos. Por esta razão, sincronização de relógios é um serviço de fundamental importância, sobretudo em aplicações críticas, onde os níveis de confiabilidade exigidos são mais elevados. O presente trabalho consiste na proposta e implementação de uma plataforma de comunicação otimizada para sistemas de controle distribuídos, caracterizados por uma alta regularidade no comportamento da comunicação. O objetivo é propor uma solução em baixo nível com suporte para o projeto de sistemas distribuídos no domínio de aplicações críticas. A plataforma proposta, à qual foi atribuído o nome CASCA, sigla para “Communication Architecture for Safety- Critical Applications”, é de fato uma extensão time-triggered do protocolo CAN. Acima da camada de enlace do protocolo original foram projetados mecanismos sincronização de relógios e criação inicial da base de tempo, implementados na forma de uma combinação de hardware e software. Principais características da plataforma são jitter mínimo, uma base de tempo global essencialmente distribuída e particionamento temporal. Diferentes alternativas de projeto foram consideradas, observando com maior atenção a viabilidade de prototipação em dispositivos FPGA para fins de validação e aplicação imediata em plataformas reconfiguráveis. Como forma de validação da plataforma, um sistema elementar formado por três nodos foi sintetizado com sucesso em bancada obtendo-se como resultado uma base de tempo essencialmente distribuída com precisão menor do que um micro-segundo.
Resumo:
Esta videoaula é uma apresentação do conteúdo que será trabalhado durante a disciplina de Engenharia de Software. O objetivo principal da disciplina é ensinar os alunos a projetar um sistema orientado a objetos usando a linguagem de modelagem UML. O objetivo secundário é ensiná-los a desenvolver um sistema de forma iterativa e incremental. Os diagramas abordados durante o curso são Casos de Uso, Diagramas Conceituais e de Classes, Diagrama de Seqüência, Diagrama de Colaboração e de Estado. Para exemplificar e transmitir tais ensinamentos será usado um sistema de reserva de uma rede de hotéis. Este material é voltado aos estudantes de graduação que estão cursando disciplinas de Engenharia de Software.
Resumo:
O professor inicia-se esta videoaula fazendo uma apresentação pessoal. Logo após, informa algumas informações referentes à disciplina, que foca no contexto de aplicação para web (abordagem cliente – servidor). As tecnologias citadas são a linguagem Java, servidor Tomcat e banco de dados MySQL. São mencionadas as tarefas que devem ser executadas pelos alunos de modo a dar continuidade à disciplina.
Resumo:
O vídeo apresenta a relação entre a área de Interação Humano-Computador e fatores humanos, como características físicas, cognitivas e emocionais. O vídeo apresenta o Modelo de Processamento de Informação Humano (MPIH) e alguns exemplos do funcionamento do corpo humano em relação às soluções computacionais.
Resumo:
Versão acessível do vídeo com audiodescrição.
Resumo:
O desenho da figura humana é um tipo de desenho realizado espontaneamente pelas crianças de diferentes culturas. Este pode ser encarado como medida não verbal da maturidade conceptual da criança. Ao longo dos tempos, na tentativa de construir um instrumento mais eficaz, vários autores desenvolveram diferentes sistemas de avaliação do Teste do Desenho da Figura Humana (TDFH). Assim, o objectivo desta investigação consiste na aferição e validação do TDFH à população portuguesa madeirense, utilizando o sistema de avaliação de Solange Wechsler (2003). Este teste propõe a aplicação de dois desenhos, uma figura masculina e outra feminina, que são cotados independentemente ao longo de 18 itens e 17 itens subdivididos respectivamente. Neste estudo participaram 489 sujeitos, 50,3% do sexo masculino e 49,7% do sexo feminino, com idades compreendidas entre os 5 e os 13 anos de idade da Região Autónoma da Madeira no ano lectivo 2009/2010. Os resultados mostram diferenças significativas na forma de desenhar a figura humana, entre os sexos, as faixas etárias e os anos escolares. Assim, as raparigas apresentam valores superiores aos dos rapazes; à medida que a idade avança os valores obtidos aumentam; e por fim à medida que as crianças progridem na escolaridade os resultados são superiores. Verificou-se ainda que alunos de escolas públicas apresentam resultados mais elevados do que os alunos de escolas privadas, sendo que alunos de escolas rurais expressam valores superiores aos das escolas urbanas. Os dados do TDFH apresentaram correlações positivas significativas com os das Matrizes Progressivas Coloridas de Raven, bem como com as classificações de Português e Matemática. Ao nível da consistência interna, o instrumento apresenta alphas de Cronbach entre os 0,80 e os 0,924, o que lhe confere fiabilidade. Globalmente, o TDFH apresenta bons valores de validade mostrando ser uma boa medida desenvolvimental e conceptual.