17 resultados para Linguagens informáticas
em Repositório Digital da UNIVERSIDADE DA MADEIRA - Portugal
Resumo:
This thesis presents a cloud-based software platform for sharing publicly available scientific datasets. The proposed platform leverages the potential of NoSQL databases and asynchronous IO technologies, such as Node.JS, in order to achieve high performances and flexible solutions. This solution will serve two main groups of users. The dataset providers, which are the researchers responsible for sharing and maintaining datasets, and the dataset users, that are those who desire to access the public data. To the former are given tools to easily publish and maintain large volumes of data, whereas the later are given tools to enable the preview and creation of subsets of the original data through the introduction of filter and aggregation operations. The choice of NoSQL over more traditional RDDMS emerged from and extended benchmark between relational databases (MySQL) and NoSQL (MongoDB) that is also presented in this thesis. The obtained results come to confirm the theoretical guarantees that NoSQL databases are more suitable for the kind of data that our system users will be handling, i. e., non-homogeneous data structures that can grow really fast. It is envisioned that a platform like this can lead the way to a new era of scientific data sharing where researchers are able to easily share and access all kinds of datasets, and even in more advanced scenarios be presented with recommended datasets and already existing research results on top of those recommendations.
Resumo:
Este projeto estuda as possibilidades de utilização das tecnologias de Informação e Comunicação (TIC) e desenvolve uma proposta de divulgação virtual do Museu de História Natural do Funchal [MHN-Funchal], a partir da criação de artefactos digitais. De emprego comum por parte de técnicos de museus, as ferramentas informáticas poderão ser criadas sem recurso a especialistas na matéria, o que se afigura, desde logo uma mais-valia. Para responder às perguntas - como e porquê usar ferramentas informáticas de utilizadores, na organização de visitas guiadas num museu? - Estudámos o que pensam os peritos sobre este assunto. Completamos essa investigação com um inquérito aos visitantes. Comparamos o Museu Virtual e o Museu físico argumentando com as vantagens da utilização destes dois conceitos complementares. No final implementaremos um protótipo como prova das nossas conclusões.
Resumo:
Investiguei a arte como estratégia de ensino/aprendizagem e como esta prática estabelece quebra de paradigmas e incentivo à autonomia discente. Para tanto fiz uma breve descrição histórica acerca do panorama teórico correlacionado com o percurso das inovações educacionais desde o final da Idade Média até a contemporaneidade, buscando identificar de que forma o acúmulo teórico-metodológico gerado por este itinerário influenciou na disciplina Arte/Educação e no seu potencial inovador. Observei ainda como a ilustração textual, produzida pelos educandos, funciona como veículo de reelaboração crítica de suas realidades mediata e imediata. Esta investigação teve como sujeitos alunos do nono ano do Ensino Fundamental II, no decorrer de 2011, na escola autogestionária Waldorf Micael, em Fortaleza, Ceará, Brasil. Ao longo das observações, procurei responder às seguintes questões: De que maneira a ilustração textual se configura na qualidade de mediadora de processos interpretativos no contexto de ensino/aprendizagem em arte e literatura? De que forma, ela, no contexto da sistemática pedagógica, se revela como ferramenta de inovação pedagógica? Qual a sua importância no desenvolvimento do senso crítico do educando, e como tal fato se configura inovador? Como interfere na apreensão da realidade do educando, no seu aspecto estético, político e social? Os dados da investigação foram obtidos por meio de entrevistas, análise documental e observação participante; dessa forma esta pesquisa configurou-se como qualitativa, do tipo etnográfica e de base hermenêutica.
Resumo:
Generalized hyper competitiveness in the world markets has determined the need to offer better products to potential and actual clients in order to mark an advantagefrom other competitors. To ensure the production of an adequate product, enterprises need to work on the efficiency and efficacy of their business processes (BPs) by means of the construction of Interactive Information Systems (IISs, including Interactive Multimedia Documents) so that they are processed more fluidly and correctly.The construction of the correct IIS is a major task that can only be successful if the needs from every intervenient are taken into account. Their requirements must bedefined with precision, extensively analyzed and consequently the system must be accurately designed in order to minimize implementation problems so that the IIS isproduced on schedule and with the fewer mistakes as possible. The main contribution of this thesis is the proposal of Goals, a software (engineering) construction process which aims at defining the tasks to be carried out in order to develop software. This process defines the stakeholders, the artifacts, and the techniques that should be applied to achieve correctness of the IIS. Complementarily, this process suggests two methodologies to be applied in the initial phases of the lifecycle of the Software Engineering process: Process Use Cases for the phase of requirements, and; MultiGoals for the phases of analysis and design. Process Use Cases is a UML-based (Unified Modeling Language), goal-driven and use case oriented methodology for the definition of functional requirements. It uses an information oriented strategy in order to identify BPs while constructing the enterprise’s information structure, and finalizes with the identification of use cases within the design of these BPs. This approach provides a useful tool for both activities of Business Process Management and Software Engineering. MultiGoals is a UML-based, use case-driven and architectural centric methodology for the analysis and design of IISs with support for Multimedia. It proposes the analysis of user tasks as the basis of the design of the: (i) user interface; (ii) the system behaviour that is modeled by means of patterns which can combine Multimedia and standard information, and; (iii) the database and media contents. This thesis makes the theoretic presentation of these approaches accompanied with examples from a real project which provide the necessary support for the understanding of the used techniques.
Resumo:
Os modelos e as técnicas de modelação são, hoje em dia, fundamentais na engenharia de software, devido à complexidade e sofisticação dos sistemas de informação actuais.A linguagem Unified Modeling Language (UML) [OMG, 2005a] [OMG, 2005b] tornou-se uma norma para modelação, na engenharia de software e em outras áreas e domínios, mas é reconhecida a sua falta de suporte para a modelação da interactividade e da interface com o utilizador [Nunes and Falcão e Cunha, 2000].Neste trabalho, é explorada a ligação entre as áreas de engenharia de software e de interacção humano-computador, tendo, para isso, sido escolhido o processo de desenvolvimento Wisdom [Nunes and Falcão e Cunha, 2000] [Nunes, 2001]. O método Wisdom é conduzido por casos de utilização essenciais e pelo princípio da prototipificação evolutiva, focando-se no desenho das interfaces com o utilizador através da estrutura da apresentação, com a notação Protótipos Abstractos Canónicos (PAC) [Constantine and Lockwood, 1999] [Constantine, 2003], e do comportamento da interacção com a notação ConcurTaskTrees (CTT) [Paternò, 1999] [Mori, Paternò, et al., 2004] em UML.É proposto, também, neste trabalho um novo passo no processo Wisdom, sendo definido um modelo específico, construído segundo os requisitos da recomendação Model Driven Architecture (MDA) [Soley and OMG, 2000] [OMG, 2003] elaborada pela organização Object Managent Group (OMG). Este modelo específico será o intermediário entre o modelo de desenho e a implementação da interface final com o utilizador. Esta proposta alinha o método Wisdom com a recomendação MDA, tornando possível que sejam gerados, de forma automática, protótipos funcionais de interfaces com o utilizador a partir dos modelos conceptuais de análise e desenho.Foi utilizada a ferramenta de modelação e de metamodelação MetaSketch [Nóbrega, Nunes, et al., 2006] para a definição e manipulação dos modelos e elementos propostos. Foram criadas as aplicações Model2Model e Model2Code para suportar as transformações entre modelos e a geração de código a partir destes. Para a plataforma de implementação foi escolhida a framework Hydra, desenvolvida na linguagem PHP [PHP, 2006], que foi adaptada com alguns conceitos de modo a suportar a abordagem defendida neste trabalho.
Resumo:
Na análise funcional de imagens do cérebro podem utilizar-se diferentes métodos na identificação de zonas de activação. Tem havido uma evolução desde o método de correlação [19], para outros métodos [9] [14] até o método baseado no modelo linear generalizado que é mais comum ser utilizado hoje e que levou ao pacote de software SPM [15]. Deve-se principalmente à versatilidade que o método tem em realizar testes com diferentes objectivos. Têm sido publicados alguns estudos comparativos. Poucos têm sido quantitativos [20] e quando o são, o número de métodos testados é reduzido[22]. Há muitos estudos comparativos do ponto de vista da estatística envolvida (da matemática) mas que têm em geral apenas ns académicos. Um objectivo deste estudo é comparar os resultados obtidos por diferentes métodos. É de particular interesse averiguar o comportamento de cada método na fronteira do local de activação. As diferenças serão avaliadas numericamente para os seguintes métodos clássicos: t de Student, coeficiente de correlação e o modelo linear generalizado. Três novos métodos são também propostos - o método de picos de Fourier, o método de sobreposição e o método de amplitude. O segundo pode ser aplicado para o melhoramento dos métodos de t de Student, coe ciente de correlação e modelo linear generalizado. Ele pode no entanto, também manter-se como um método de análise independente. A influência exercida em cada método pelos parâmetros pertinentes é também medida. É adoptado um conjunto de dados clínicos que está amplamente estudado e documentado. Desta forma elimina-se a possibilidade dos resultados obtidos serem interpretados como sendo específicos do caso em estudo. Há situações em que a influência do método utilizado na identificação das áreas de activação de imagens funcionais do cérebro é crucial. Tal acontece, por exemplo, quando um tumor desenvolve-se perto de uma zona de activação responsável por uma função importante . Para o cirurgião tornase indispensável avaliar se existe alguma sobreposição. A escolha de um dos métodos disponíveis poderá ter infuência sobre a decisão final. Se o método escolhido for mais conservador, pode verificar-se sobreposição e eliminar-se a possibilidade de cirurgia. Porém, se o método for mais restritivo a decisão final pode ser favorável à cirurgia. Artigos recentes têm suportado a ideia de que a ressonância magnética funcional é de facto muito útil no processo de decisão pré-operatório [12].O segundo objectivo do estudo é então avaliar a sobreposição entre um volume de activação e o volume do tumor. Os programas informáticos de análise funcional disponíveis são variados em vários aspectos: na plataforma em que funcionam (macintosh, linux, windows ou outras), na linguagem em que foram desenvolvidos (e.g. c+motif, c+matlab, matlab, etc.) no tratamento inicial dos dados (antes da aplicação do método de análise), no formato das imagens e no(s) método(s) de análise escolhido(s). Este facto di culta qualquer tentativa de comparação. À partida esta poderá apenas ser qualitativa. Uma comparação quantitativa implicaria a necessidade de ocorrerem três factos: o utilizador tem acesso ao código do programa, sabe programar nas diferentes linguagens e tem licença de utilização de software comercial (e.g. matlab). Sendo assim foi decidido adoptar uma estratégia unificadora. Ou seja, criar um novo programa desenvolvido numa linguagem independente da plataforma, que não utilize software comercial e que permita aplicar (e comparar quantitativamente) diferentes métodos de análise funcional. A linguagem escolhida foi o JAVA. O programa desenvolvido no âmbito desta tese chama-se Cérebro.
Resumo:
No contexto das tecnologias propostas pela OMG, o MOF é utilizado para definir a sintaxe de linguagens de modelação, contudo, os aspectos semânticos não podem ser capturados usando esta linguagem. A descrição dos aspectos não sintácticos é realizada com recurso à linguagem OCL. Consequentemente, para uma completa definição de uma linguagem de modelação é necessário incorporar o OCL no MOF, criando uma infra-estrutura que possui a expressividade necessária para realizar esta função. Este projecto visa complementar a ferramenta de metamodelação MetaSketch Editor, introduzindo a capacidade de executar expressões em OCL e permitindo, desta forma, a verificação semântica dos modelos construídos usando o MetaSketch Editor. A gramática da linguagem OCL adoptada está de acordo com a especificação elaborada pela OMG (2006-05-01), juntando-se algumas contribuições de trabalhos existentes sobre esta linguagem. O projecto envolveu a implementação de um parser com recurso ao sistema GOLD Parser, a implementação da standard library do OCL em C# e, por último, a implementação de uma estratégia de execução das expressões em OCL.
Resumo:
Orientador: Alberto Manuel Rodrigues da Silva
Resumo:
O objetivo deste estudo é compreender a natureza da inovação pedagógica no processo de ensino e aprendizagem de alunos e professores do Curso de Pedagogia da Universidade de Brasília (UnB). Esta pesquisa justifica-se por oferecer uma contribuição original ao campo da inovação pedagógica através da investigação de uma experiência pioneira e inédita no período de 2006 e 2007. O trabalho de campo se deu sob a ótica da abordagem etnográfica orientada por Mattos (2009), Lüdke (2007), André (2004), Erickson (1992), Lapassade (1982) e Spradley (1979). Os instrumentos incluíram: observação participante, estudo de caso etnográfico (Turma de GEPE), entrevistas semi-estruturadas, documentos, dentre outros. As análises dos dados foram de natureza indutiva com o auxílio do quadro analítico de Spradley (1979) das hipóteses progressivas de Hammersley (1992) e do software Atlas.ti. As categorias derivadas das análises foram: conhecimento, currículo, tecnologia e inovação. No âmbito descritivo (GEERTZ, 1989), este estudo registra a experiência de alunos e professores do Curso de Pedagogia da Universidade de Brasília (UnB), autodenominado inovador, subsidiando a análise da inovação pedagógica na perspectiva dos sujeitos do processo de ensino e aprendizagem no ensino superior. Quanto aos resultados do estudo empírico, os dados coletados permitiram identificar: a polissemia de sentidos atribuídos ao termo inovação, a porosidade epistemológica do conhecimento no campo educacional, que sustenta a inovação através da construção dialético reflexiva do conhecimento pelos sujeitos do processo de ensino e aprendizagem; a argumentação de que a ação docente é a principal ―tecnologia cultural‖ e de que as linguagens midiáticas dependem da ação dos docentes para promover inovação; a necessidade de estudar a noção de currículo como viés de inovação pedagógica, investigada no contexto de propostas curriculares inovadoras; e, especialmente, a constatação de que inovação pedagógica como mudança paradigmática (FINO, 2001; 2003) pressupõe transformação ontológica da educação. Esses resultados subsidiam a proposição teórica da inovação pedagógica como ‗utopia realizável‘, isto é, como ―inédito-viável‖ (FREIRE, 1992) no contexto de uma ―Pedagogia da Possibilidade‖ (FREIRE, 2001; McLAREN 1998; SIMON, 1995). Finalmente, baseando-se nos resultados e nessa proposição teórica, a tese oferece recomendações para a prática, pesquisa e políticas públicas em educação.
Resumo:
Os modelos são tradicionalmente utilizados na engenharia de software para documentar aspetos do desenho e, em alguns casos, como base para a geração de parte ou a totalidade dos sistemas informáticos que descrevem. Embora subsista o debate sobre este tipo de abordagens e sobre o papel e qualidades que os modelos devem possuir nesta área de engenharia, a existência de modelos que estejam em conformidade com linguagens de modelação bem definidas permite outro tipo de utilizações que vão além das anteriormente referidas. Assente no conhecimento existente sobre a visualização de dados, nesta dissertação irá ser demonstrado a utilização de técnicas de visualização que permitem extrair informação sobre os modelos numa perspetiva inovadora e que contribui favoravelmente para uma melhor compreensão, análise e validação dos mesmos.
Resumo:
Este relatório pretende ilustrar a experiência profissional obtida, principalmente após a conclusão, em 1998, da Licenciatura em Engenharia de Sistemas e Computadores na Universidade da Madeira. Esta experiência circunscreve-se à proficiência nas áreas de redes de comunicação de dados, automação e robótica e desenvolvimento de média interativos (tanto na vertente de CD-ROMs como orientado à Internet). Embora também disponha de experiência no ensino destas áreas citadas, foram privilegiados os projetos com uma relevância mais técnica atendendo à natureza deste mestrado. Sendo assim, são apresentadas nestas quatro áreas primeiro uma descrição dos projetos realizados no âmbito do percurso profissional, para depois descrever uma implementação (relativa a cada área) utilizando uma metodologia científica que fora alvo de estudo na componente letiva deste mestrado, salientando as virtudes e defeitos de ambas as abordagens e comparando os resultados obtidos. Em síntese, é analisado o projeto de gestão de sistemas de redes das Escolas Secundárias Francisco Franco e Jaime Moniz (no âmbito do desempenho das funções de Diretor das Instalações Informáticas em ambas as instituições) culminando numa proposta de implementação utilizando equipamentos da Cisco; é analisado o projeto de CD-ROM sobre a Reserva Natural das Ilhas Desertas para depois completar um jogo educativo utilizando uma metodologia científica de Game Design; são descritos os websites desenvolvidos (com especial ênfase nos realizados enquanto técnico superior de informática na Secretaria Regional do Ambiente e dos Recursos Naturais) para concluir com uma proposta de implementação de um sistema de marcação de reuniões orientado para a Cloud; finalmente, é descrito a utilização dos kits Lego Mindstorms para o ensino da programação, propondo uma implementação de baixo custo (alternativa) baseada num Raspberry Pi e componentes acessórios (tanto estandardizados como construídos com uma RepRap). Em suma, é contraposto o rigor e método do ensino académico com o pragmatismo e metas de produtividade exigidas no mercado de trabalho.
Resumo:
As redes de computadores cresceram nas últimas décadas em diversidade e complexidade,sempre procurando manter um nível elevado de qualidade na comunicação. Atualmente existe uma variedade de ferramentas para a gest~ao de redes que cobrem de forma completa ou parcial as diferentes etapas do ciclo de vida dessas redes. Dadas a dimensão e heterogeneidade dessas redes, o seu desenvolvimento e operação são tarefas que envolvem um número crescente de ferramentas, o que induz a uma maior complexidade. Além do mais, a maior parte das ferramentas existentes s~ao independentes e incompatíveis, tornando a tarefa dos arquitetos e dos gestores de redes mais difícil. Dessa forma, é identificada a necessidade de uma abstraãoo ou abordagem genérica que permita a interoperabilidade entre diferentes ferramentas/ambientes de rede de forma a facilitar e otimizar a sua gestão. O trabalho apresentado nesta tese introduz a proposta e a implementação de uma framework para a integração de diferentes ferramentas heterogéneas de rede dando suporte Da criação de um ambiente de gestão que cubra o ciclo de vida de uma rede de comunica ção. A interoperabilidade proporcionada pela framework é implementada através da proposta de uma nova linguagem para a descrição de redes e de todos os seus componentes, incluindo a informação da topologia e dos contextos onde a rede pode existir. As demais contribuições desta tese estão relacionadas com (i) a implementação de algumas ferramentas de gestão para dar suporte há construção de cenários de rede utilizando a linguagem proposta, e (ii) a modelação de vários cenários de rede com tecnologias diferentes, incluindo aspetos de Qualidade de Serviço, para a validação da utilização da framework proposta para proporcionar a interoperabilidade entre diferentes ferramentas de gestão de redes. A linguagem proposta para a descrição de redes preocupou-se com a descrição dos cenários de rede dando suporte das diferentes fases da existência dessa rede, desde o seu projeto até a sua operação, manutenção e atualização. Uma vantagem desta abordagem de permitir a coexistência de diversas informações de utilização da rede numa única descrição, mantendo cada uma independente das restantes, o que promove a compatibilidade e a reutilização das informações de forma direta entre as ferramentas, ultrapassando assim a principal limitação detetada nas linguagens e ferramentas existentes e reforçando as possibilidades de interoperabilidade.
Resumo:
De modo a manter políticas de utilização aceitável dos seus serviços de Internet, a NOS Madeira tem usado um sistema de fabrico próprio onde os clientes são catalogados de acordo com o tráfego que realizam. Contudo, esse sistema tornou-se demasiado antigo para as necessidades atuais da empresa. Usava tecnologias descontinuadas, não tinha interfaces de integração, faltava modularidade e não tinha a flexibilidade necessária para expandir as regras de negócio. Este projeto centra-se na implementação de um dos três subsistemas que substituem o sistema antigo: o subsistema controlador. O objetivo é modernizar, facilitar a manutenção e garantir maior flexibilidade. Tudo isto com recurso a linguagens de programação atuais como o PHP, ferramentas como a Zend Framework e mantendo em mente as melhores práticas de programação. São apresentados a especificação e modelação do sistema, assim como todos os detalhes da implementação em conjunto com as decisões e problemas encontrados. Os testes e resultados, incluindo a entrada com sucesso em produção do sistema, juntamente com sugestões de melhorias futuras concluem este trabalho.
Resumo:
Este estudo busca compreender e explicitar as concepções políticas, pedagógicas e estéticas do Teatro de Cultura Popular. Para alcançar esse objetivo, adotamos os princípios da pesquisa histórica e documental, através do estudo de caso. Nosso objeto de estudo é formado pelos jornais de grande circulação que publicaram críticas ao TCP, de 1960 a 1964; por depoimentos e pelo texto teatral “Julgamento em Novo Sol”. Alguns depoimentos foram gravados em vídeo, outros estavam em documentários ou em publicações, que foram posteriormente transcritos. Esse material foi submetido à Análise de Conteúdo, o que possibilitou responder à questão que nos propusemos: “será que a práxis do Teatro de Cultura Popular se configurou como inovação pedagógica no campo da pedagogia do teatro?” A análise provou que sim. O TCP desenvolveu uma pedagogia teatral completamente nova e criou um teatro político, pedagógico e estético de forma indissociável. Esse grupo construiu, não apenas na cidade do Recife, mas em todo o estado de Pernambuco, um teatro comprometido com o povo e com a sua cultura. Rompeu com os paradigmas vigentes e se estabeleceu como uma nova realidade, reverberando para todo o Brasil. Além disso, o TCP trabalhou com várias linguagens: teatro popular, teatro para crianças, teatro de propaganda política, teatro de mamulengo, teatro épico e didático. Desse novo olhar, surgiu um projeto de educação nacional idealizado por Paulo Freire.
Resumo:
Worldwide reports about energy usage have noted the importance of the domestic energy consumption sector in the worldwide scenario. This fact motivated and supported the birth and spread of the so-called eco-feedback devices. Such devices provide information about individual or group energy consumption behavior with the goal of reducing the impact in the environment. Motivated by the body of work which questions the long term effectiveness of eco-feedback systems, this thesis focus on evaluating in-the-wild the long term usage of eco-feedback systems. We have conducted five long term studies with different eco-feedback systems designed to evaluate different dimensions in the design of eco-feedback plus two more focused short term studies aimed at studying concrete approaches. Our summary reports on the fact that the there is a novelty effect associated with ecofeedback systems in which the usage of these devices declines significantly after a month. We did not found evidence that the novelty effect is related to location or the type of information represented, nor that the decrease in the eco-feedback usage could lead to the consumption relapsing to values previous to the introduction of the eco-feedback. Our work has also generated other contributions related to the positioning of the feedback, using metaphors for representing the consumption and presenting information about the source of the energy in the feedback.