1000 resultados para Sistemas virtuales (Informática) -- TFC
Resumo:
Dissertação de Mestrado, Ciências Económicas e Empresariais, 28 de Julho de 2015, Universidade dos Açores.
Resumo:
É considerado um dos problemas na educação o facto de a aprendizagem poder ser muito baseada no uso da teoria. Sendo as experiências do ser humano uma grande parte da forma como vemos e vivemos o mundo, torna-se imprescindível o hábito da prática na formação do nosso conhecimento. Embora a teoria seja sempre necessária na construção de conceitos, deve ser complementada com a experiência de forma a consolidar a aprendizagem para melhor noção da realidade. Esta dissertação descreve uma didáctica para a integração de dispositivos hápticos aplicados à educação, concebendo assim um novo e inovador método de ensino aliado à prática. Dependendo da aceitação por parte dos alunos, este método de uso de tecnologia na educação para fins práticos pode revelar-se revolucionário. Experiências que seriam difíceis de realizar tornam-se possíveis de simular de uma forma real com a ajuda dos sistemas hápticos, em que a variedade de matérias que as aplicações podem simular é vasta. Especificamente, este trabalho fundamenta-se no estudo da aerodinâmica no voo com recurso a uma aplicação desenvolvida para o efeito e à potencialidade do aparelho háptico Novint Falcon, um interface sensorial táctil entre uma pessoa e um computador, de custo relativamente baixo em relação à generalidade dos preços deste tipo de dispositivos. Os testes que estudantes realizaram à aplicação revelaram grande interesse e curiosidade pela novidade da tecnologia háptica e apreciação no conceito do seu uso prático na educação. De forma geral, todos os alunos que participaram no ensaio do programa transmitiram feedback positivo, expressando maior ganho de motivação e desejo em ver este sistema aplicado a outras disciplinas.
Resumo:
Perante a evolução constante da Internet, a sua utilização é quase obrigatória. Através da web, é possível conferir extractos bancários, fazer compras em países longínquos, pagar serviços sem sair de casa, entre muitos outros. Há inúmeras alternativas de utilização desta rede. Ao se tornar tão útil e próxima das pessoas, estas começaram também a ganhar mais conhecimentos informáticos. Na Internet, estão também publicados vários guias para intrusão ilícita em sistemas, assim como manuais para outras práticas criminosas. Este tipo de informação, aliado à crescente capacidade informática do utilizador, teve como resultado uma alteração nos paradigmas de segurança informática actual. Actualmente, em segurança informática a preocupação com o hardware é menor, sendo o principal objectivo a salvaguarda dos dados e continuidade dos serviços. Isto deve-se fundamentalmente à dependência das organizações nos seus dados digitais e, cada vez mais, dos serviços que disponibilizam online. Dada a mudança dos perigos e do que se pretende proteger, também os mecanismos de segurança devem ser alterados. Torna-se necessário conhecer o atacante, podendo prever o que o motiva e o que pretende atacar. Neste contexto, propôs-se a implementação de sistemas de registo de tentativas de acesso ilícitas em cinco instituições de ensino superior e posterior análise da informação recolhida com auxílio de técnicas de data mining (mineração de dados). Esta solução é pouco utilizada com este intuito em investigação, pelo que foi necessário procurar analogias com outras áreas de aplicação para recolher documentação relevante para a sua implementação. A solução resultante revelou-se eficaz, tendo levado ao desenvolvimento de uma aplicação de fusão de logs das aplicações Honeyd e Snort (responsável também pelo seu tratamento, preparação e disponibilização num ficheiro Comma Separated Values (CSV), acrescentando conhecimento sobre o que se pode obter estatisticamente e revelando características úteis e previamente desconhecidas dos atacantes. Este conhecimento pode ser utilizado por um administrador de sistemas para melhorar o desempenho dos seus mecanismos de segurança, tais como firewalls e Intrusion Detection Systems (IDS).
Resumo:
A natural evolução dos sistemas de informação nas organizações envolve por um lado a instalação de equipamentos actualizados, e por outro a adopção de novas aplicações de suporte ao negócio, acompanhando o desenvolvimento dos mercados, as mudanças no modelo de negócio e a maturação da organização num novo contexto. Muitas vezes esta evolução implica a preservação dos dados existentes e de funcionalidades não cobertas pelas novas aplicações. Este facto leva ao desenvolvimento e execução de processos de migração de dados, de aplicações, e de integração de sistemas legados. Estes processos estão condicionados ao meio tecnológico disponível e ao conhecimento existente sobre os sistemas legados, sendo sensíveis ao contexto em que se desenrolam. Esta dissertação apresenta um estado da arte das abordagens à migração e integração, descreve as diversas alternativas, e ilustra de uma forma sistematizada e comparativa os exercícios realizados usando diferentes abordagens, num ambiente real de migração e integração em mudança.
Resumo:
Mestrado em Contabilidade e Gestão das Instituições Financeiras
Resumo:
Mestrado em Auditoria
Resumo:
A Lei de Potência é uma particularidade de um sistema não linear, revelando um sistema complexo próximo da auto-organização. Algumas características de sistemas naturais e artificiais, tais como dimensão populacional das cidades, valor dos rendimentos pessoais, frequência de ocorrência de palavras em textos e magnitude de sismos, seguem distribuições do tipo Lei de Potência. Estas distribuições indicam que pequenas ocorrências são muito comuns e grandes ocorrências são raras, podendo porém verificar-se com razoável probabilidade. A finalidade deste trabalho visa a identificação de fenómenos associados às Leis de Potência. Mostra-se o comportamento típico destes fenómenos, com os dados retirados dos vários casos de estudo e com a ajuda de uma meta-análise. As Leis de Potência em sistemas naturais e artificiais apresentam uma proximidade a um padrão, quando os valores são normalizados (frequências relativas) para dar origem a um meta-gráfico.
Resumo:
A geração de trajectórias de robôs em tempo real é uma tarefa muito complexa, não
existindo ainda um algoritmo que a permita resolver de forma eficaz. De facto, há
controladores eficientes para trajectórias previamente definidas, todavia, a adaptação a
variações imprevisíveis, como sendo terrenos irregulares ou obstáculos, constitui ainda um
problema em aberto na geração de trajectórias em tempo real de robôs.
Neste trabalho apresentam-se modelos de geradores centrais de padrões de locomoção
(CPGs), inspirados na biologia, que geram os ritmos locomotores num robô quadrúpede.
Os CPGs são modelados matematicamente por sistemas acoplados de células (ou
neurónios), sendo a dinâmica de cada célula dada por um sistema de equações diferenciais
ordinárias não lineares. Assume-se que as trajectórias dos robôs são constituídas por esta
parte rítmica e por uma parte discreta. A parte discreta pode ser embebida na parte rítmica,
(a.1) como um offset ou (a.2) adicionada às expressões rítmicas, ou (b) pode ser calculada
independentemente e adicionada exactamente antes do envio dos sinais para as articulações
do robô. A parte discreta permite inserir no passo locomotor uma perturbação, que poderá
estar associada à locomoção em terrenos irregulares ou à existência de obstáculos na
trajectória do robô. Para se proceder á análise do sistema com parte discreta, será variado o
parâmetro g. O parâmetro g, presente nas equações da parte discreta, representa o offset do
sinal após a inclusão da parte discreta.
Revê-se a teoria de bifurcação e simetria que permite a classificação das soluções
periódicas produzidas pelos modelos de CPGs com passos locomotores quadrúpedes. Nas
simulações numéricas, usam-se as equações de Morris-Lecar e o oscilador de Hopf como
modelos da dinâmica interna de cada célula para a parte rítmica. A parte discreta é
modelada por um sistema inspirado no modelo VITE. Medem-se a amplitude e a
frequência de dois passos locomotores para variação do parâmetro g, no intervalo [-5;5].
Consideram-se duas formas distintas de incluir a parte discreta na parte rítmica: (a) como
um (a.1) offset ou (a.2) somada nas expressões que modelam a parte rítmica, e (b) somada
ao sinal da parte rítmica antes de ser enviado às articulações do robô. No caso (a.1),
considerando o oscilador de Hopf como dinâmica interna das células, verifica-se que a amplitude e frequência se mantêm constantes para -5
Resumo:
Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.
Resumo:
OBJETIVO: Avaliar a qualidade do Sistema de Informação do Câncer do Colo do Útero (Siscolo). MÉTODOS: Estudo descritivo sobre a completitude, validade e sensibilidade dos dados no Siscolo no estado do Rio de Janeiro, com base no seguimento de uma coorte de 2.024 mulheres entre 2002 e 2006. As participantes eram residentes em comunidades assistidas pela Estratégia Saúde da Família nos municípios de Duque de Caxias e Nova Iguaçu (RJ). As duas bases de dados do Siscolo, referentes aos exames citopatológicos e aos exames confirmatórios (colposcopia e histopatologia), foram comparadas a dados obtidos em uma base de referência de pesquisa e prontuários médicos. O gráfico de Bland-Altman foi utilizado para analisar as variáveis contínuas. Para o relacionamento entre os bancos de dados foi utilizado o programa computacional Reclink. RESULTADOS: A completitude do sistema foi excelente para os campos "nome da mãe" e "logradouro de residência", boa para "bairro de residência" e péssima para "CEP" e "CPF". Quanto à validade, a sensibilidade do campo "data da coleta" foi de 100% para os exames confirmatórios e de 70,3% para os exames citopatológicos. Já para o campo "resultados dos exames", a sensibilidade foi de 100% em ambos os exames. A sensibilidade do sistema em identificar os exames citopatológicos foi de 77,4% (IC 95%: 75,0;80,0), enquanto para os exames confirmatórios (colposcopia e histopatologia) foi de 4,0% (IC 95%: 0,0;21,3). CONCLUSÕES: Os dados do Siscolo foram considerados de boa qualidade, em particular para os campos relacionados aos exames citopatológicos. O uso dos dados de colposcopia e histopatologia não foi satisfatório devido ao seu escasso registro no sistema.
Resumo:
O objetivo do estudo foi comparar o perfil epidemiológico de meningite criptocócica em diferentes sistemas de informação, avaliando assim em que medida aquele disponível no Sistema de Informação de Agravos de Notificação refletiria as ocorrências da meningite criptocócica no estado do Rio de Janeiro, de 2000 a 2004. O banco do Sistema de Informação de Agravos de Notificação foi comparado com um novo banco composto pelos casos de meningite criptocócica desse Sistema, da Assessoria de Meningite da Secretaria de Saúde do Estado e dos registros do laboratório do Instituto Estadual de Infectologia São Sebastião. O Sistema captou 65,7% dos casos presentes no novo banco. O percentual de pacientes apresentando Aids como doença preexistente foi semelhante nos dois bancos (26% e 24,9%). Assim, embora a incidência de meningite criptocócica esteja subestimada nesse Sistema, o perfil dos casos notificados reflete o perfil do total de casos.
Resumo:
Dissertação de Mestrado, Vulcanologia e Riscos Geológicos, 17 de Novembro de 2015, Universidade dos Açores.
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia na Área de especialização em Vias de Comunicação e Transportes
Resumo:
A massificação da utilização das tecnologias de informação e da Internet para os mais variados fins, e nas mais diversas áreas, criou problemas de gestão das infra-estruturas de informática, ímpares até ao momento. A gestão de redes informáticas converteu-se num factor vital para uma rede a operar de forma eficiente, produtiva e lucrativa. No entanto, a maioria dos sistemas são baseados no Simple Network Management Protocol (SNMP), assente no modelo cliente-servidor e com um paradigma centralizado. Desta forma subsiste sempre um servidor central que colecta e analisa dados provenientes dos diferentes elementos dispersos pela rede. Sendo que os dados de gestão estão armazenados em bases de dados de gestão ou Management Information Bases (MIB’s) localizadas nos diversos elementos da rede. O actual modelo de gestão baseado no SNMP não tem conseguido dar a resposta exigida. Pelo que, existe a necessidade de se estudar e utilizar novos paradigmas de maneira a que se possa encontrar uma nova abordagem capaz de aumentar a fiabilidade e a performance da gestão de redes. Neste trabalho pretende-se discutir os problemas existentes na abordagem tradicional de gestão de redes, procurando demonstrar a utilidade e as vantagens da utilização de uma abordagem baseada em Agentes móveis. Paralelamente, propõe-se uma arquitectura baseada em Agentes móveis para um sistema de gestão a utilizar num caso real.
Resumo:
Os laboratórios de experimentação remota estão normalmente associados a tecnologias ou soluções proprietárias, as quais restringem a sua utilização a determinadas plataformas e obrigam ao uso de software específico no lado do cliente. O ISEP possui um laboratório de experimentação remota, baseado em instrumentação virtual, usado no apoio ao ensino da electrónica e construído sobre uma plataforma NIELVIS da National Instruments. O software de controlo da plataforma recorre à linguagem gráfica de programação LabVIEW. Esta é uma ferramenta desenvolvida pela National Instruments que facilita o desenvolvimento de aplicações de sistemas de experimentação remota, mas que possui várias limitações, nomeadamente a necessidade de instalação do lado do cliente de um plug-in, cuja disponibilidade se encontra limitada a determinadas versões de sistemas operativos e de Web Browsers. A experiência anterior demonstrou que estas questões limitam o número de clientes com possibilidade de acesso ao laboratório remoto, para além de, em alguns casos, se ter verificado não ser transparente a sua instalação e utilização. Neste contexto, o trabalho de investigação consistiu no desenvolvimento de uma solução que permite a geração de interfaces que possibilitam o controlo remoto do sistema implementado, e que, ao mesmo tempo, são independentes da plataforma usada pelo cliente.