973 resultados para Plataformas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Argentina, en consonancia con el resto del mundo, la Nanotecnología es considerada un área estratégica. Sin embargo, las investigaciones en Nanobiotecnología todavía constituyen un área de vacancia. El uso de nanomateriales para desarrollar plataformas bioanalíticas que permitan la construcción de biosensores ofrece múltiples ventajas y una promisoria perspectiva de aplicación en diversas áreas. En la actualidad, los laboratorios de análisis clínicos, la industria farmacéutica y alimentaria, y los laboratorios de control bromatológico y ambiental requieren de metodologías analíticas que proporcionen resultados exactos, reproducibles, rápidos, sensibles y selectivos empleando pequeños volúmenes de muestra, con un mínimo consumo de reactivos y una producción de deshechos limpia y escasa. Las investigaciones en nanobiosensores se encuentran dirigidas hacia el logro de estas metas. Uno de los grandes desafíos es lograr biosensores miniaturizados con potencialidad para el desarrollo de dispositivos de medición descentralizada (“point of care”) y la detección simultánea de multianalitos. Aún cuando se han hecho innumerables desarrollos en los casi 50 años de vida de los biosensores, todavía hay numerosos interrogantes por dilucidar. La modificación con nanomateriales juega un rol preponderante en los transductores tanto en los electroquímicos como en los plasmónicos. El uso de películas delgadas de Au para SPR modificadas con grafeno u óxido de grafeno, es un campo de una enorme potencialidad y sin embargo es muy poco explotado, por lo que reviste gran importancia. En lo referido a la capa de biorreconocimiento, se trabajará con moléculas capaces de establecer interacciones de bioafinidad, como los anticuerpos y también moléculas que son muy poco usadas en nuestro país y en Latinoamérica como ADN, aptámeros, PNA y lectinas. RESUMEN: El Objetivo general de este proyecto es desarrollar nuevas plataformas bioanalíticas para la detección de diferentes eventos de bioafinidad a partir de la integración de transductores electroquímicos (EQ) y plasmónicos con materiales nanoestructurados (nanotubos de carbono, nanoláminas de grafeno, nanoalambres metálicos); biomoléculas (ADN, “peptide nucleic acid” (PNA), aptámeros, anticuerpos, lectinas) y polímeros funcionalizados con moléculas bioactivas. Las arquitecturas supramoleculares resultantes estarán dirigidas al desarrollo de biosensores EQ y plasmónicos para la cuantificación de biomarcadores de relevancia clínica y medioambiental. Se funcionalizarán CNT, grafeno, óxido de grafeno, nanoalambres metálicos empleando homopéptidos y proteínas con alta afinidad por cationes metálicos, los que se integrarán a transductores de carbono y oro y biomoléculas de reconocimiento capaces de formar complejos de afinidad (antígeno-anticuerpo, aptámero-molécula blanco, ADN-ADN, PNA-ADN, lectinas-hidratos de carbono, ligandos-cationes metálicos y avidina-biotina). Se sintetizarán y caracterizarán nuevos monómeros y polímeros funcionalizados con moléculas bioactivas y/o grupos rédox empleando diferentes rutas sintéticas. Se desarrollarán genosensores para la detección del evento de hibridación de secuencias de interés médico (cáncer de colon y de mama, tuberculosis); aptasensores para la detección de marcadores proteicos de T. cruzi, enfermedades cardiovasculares y contaminantes catiónicos; inmunosensores para la detección de biomarcadores proteicos relacionados con enfermedades cardiovasculares y cáncer; y biosensores de afinidad con lectinas para la detección de hidratos de carbono. La caracterización de las plataformas y las señales analíticas se obtendrán empleando las siguientes técnicas: voltamperometrías cíclica, de pulso diferencial y de onda cuadrada; stripping; resonancia de plasmón superficial; espectroscopía de impedancia electroquímica; microscopías de barrido electroquímico, SEM, TEM, AFM,SNOM, espectroscopías: UV-vis, FTIR,Raman;RMN, TGA y DSC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de doutoramento, Química (Química Física), Universidade de Lisboa, Faculdade de Ciências, 2016

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As TIC trouxeram múltiplos benefícios mas acarretam também riscos, nomeadamente o cyberbullying, ou seja, a prática de atos agressivos, intencionais e repetidos com recurso a dispositivos eletrónicos para, por exemplo, enviar mensagens insultuosas ou criar websites que difamam e hostilizam os outros. Este estudo teve por objetivos conhecer a frequência e os tipos de cyberbullying praticados, sofridos e observados por estudantes do ensino superior politécnico; saber se se veriicam diferenças entre géneros e cursos; identiicar as emoções associadas aos diferentes papéis no cyberbullying; identiicar os motivos invocados pelos agressores para explicar este tipo de comportamento. Para o efeito construiu-se um questionário quantitativo que foi aplicado a 170 estudantes que frequentavam várias licenciaturas de uma instituição de ensino superior politécnico de Portugal. Os resultados revelaram que 30,6% dos estudantes já tinham sido vítimas de cyberbullying e 8,2% admitiu ter praticado cyberbullying, pelo menos algumas vezes. Um dos motivos mais evocados pelos agressores para esta prática foi a vingança relativamente a episódios ocorridos anteriormente. Não se veriicaram diferenças signiicativas entre sexos mas o fenómeno era mais frequente em cursos de engenharia comparativamente aos de educação e ciências humanas. Equaciona-se a prevenção do cyberbullying a partir da utilização dos próprios meios de comunicação social para promoção da partilha de informação sobre como utilizar as TIC de forma ética e segura, bem como através da criação de programas e plataformas envolvendo estudantes de vários níveis de ensino com vista à prevenção deste fenómeno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As plataformas de e-Learning são cada vez mais utilizadas na educação à distância, facto que se encontra diretamente relacionado com a possibilidade de proporcionarem aos seus alunos a valência de poderem assistir a cursos em qualquer lugar. Dentro do âmbito das plataformas de e-Learning encontra-se um grupo especialmente interessante: as plataformas adaptativas, que tendem a substituir o professor (presencial) através de interatividade, variabilidade de conteúdos, automatização e capacidade para resolução de problemas e simulação de comportamentos educacionais. O projeto ADAPT (plataforma adaptativa de e-Learning) consiste na criação de uma destas plataformas, implementando tutoria inteligente, resolução de problemas com base em experiências passadas, algoritmos genéticos e link-mining. É na área de link-mining que surge o desenvolvimento desta dissertação que documenta o desenvolvimento de quatro módulos distintos: O primeiro módulo consiste num motor de busca para sugestão de conteúdos alternativos; o segundo módulo consiste na identificação de mudanças de estilo de aprendizagem; o terceiro módulo consiste numa plataforma de análise de dados que implementa várias técnicas de data mining e estatística para fornecer aos professores/tutores informações importantes que não seriam visíveis sem recurso a este tipo de técnicas; por fim, o último módulo consiste num sistema de recomendações que sugere aos alunos os artigos mais adequados com base nas consultas de alunos com perfis semelhantes. Esta tese documenta o desenvolvimento dos vários protótipos para cada um destes módulos. Os testes efetuados para cada módulo mostram que as metodologias utilizadas são válidas e viáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A proposta apresentada oferece uma abordagem interdisciplinar com uma forte integração entre as áreas de Gestão do Conhecimento e de Media, Marketing, Ciências Sociais e Engenharia Informática para desenvolver e aplicar a proposto de projeto final do Mestrado em Comércio Eletrónico do Instituto Superior de Engenharia de Coimbra - ISEC. Este trabalho tenta enriquecer o conhecimento nessas áreas através de suas contribuições teóricas e técnicas por apresentar, passo a passo, a sugestão de um projeto de comunicação institucional, tomada de decisão política, democracia direta digital e participação eletrónica em uma instituição pública para a promoção da cidadania digital. Dentro deste contexto, faz-se exercer por meio da democratização do acesso às TIC’s, prerrogativa da inclusão digital e social, a sugestão da criação de um conceito de uma plataforma digital que venha a auxiliar, como uma ferramenta, para que em conjunto com a sociedade e decisores políticos possam ser criados canais diretos de comunicação para possibilitar a participação da sociedade nas tomadas de decisões políticas em instituições públicas. Além do conceito de protótipo de uma plataforma digital que integre várias tipologias de democracia ainda foram criados dois modelos conceptuais, um modelo de adoção de tecnologia e, outro sobre tomada de decisão interativa, ambos com o objetivo de auxiliar e aprofundar o estudo na utilização e adoção de governo eletrónico pelos cidadãos. No âmbito de aplicabilidade e na eficácia do desenvolvimento deste trabalho, foi-se sugerido como câmara municipal portuguesa padrão a Câmara Municipal de Coimbra, em Portugal, a fim de estabelecer uma condição próxima da realidade nos processos e etapas da tomada de decisão política e participação da população na nossa proposta. Dessa forma, o presente estudo disponibiliza todos os conceitos e fundamentos para a implementação de uma plataforma de governo eletrónico proporcionado pelo uso de medias digitais, sendo assim, mais uma alternativa à democratização em massa, e a ênfase da importância dos desafios e oportunidades que determinam a adoção do uso de plataformas de governo eletrónico e da importância da e-participação no cenário atual das TIC’s e para os governos e a sociedade. Assim, ainda vale ressaltar a contribuição teórica da pesquisa elaborada sobre modelos de adoção de tecnologia e de tomada de decisão e, sobretudo, acerca do e-governo, eparticipação e tomada de decisão política, além de servir como apoio de ponto de partida para outros projetos de desenvolvimento de plataforma de participação eletrónica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta guía preparada por la División de Publicaciones y Servicios Web de la CEPAL, se describen, con un enfoque didáctico y práctico, las diversas etapas de la producción de libros electrónicos; las características de los soportes de lectura, entre otros las tabletas y los teléfonos inteligentes; los métodos de acceso a las aplicaciones, y las mejores prácticas de consulta en las tiendas o plataformas electrónicas de venta y distribución, también descritas en detalle para su mejor compresión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis (Master's)--University of Washington, 2016-06

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho analisa os importantes desafios que as novas tecnologias e as transformações na sociedade pós-industrial estão impondo à TV digital brasileira e ao seu modelo de negócios. Tem como principal objetivo realizar uma reflexão sobre a viabilidade financeira das emissoras abertas com a chegada da TV digital. Para tanto, analisa o modelo de negócios anterior, da TV analógica, baseado nos comerciais de trinta segundos e como esta forma poderá ser afetada inviabilizando a estrutura de produção e distribuição de conteúdo pelas emissoras abertas digitais. Ainda, busca evidenciar demais fatores que contribuem para a migração da audiência para outras plataformas de distribuição de conteúdo, refutando o senso comum de que o acesso à internet banda larga é a principal causa da queda dos índices de audiência. Este estudo se utiliza de uma ampla bibliografia que extrapola o campo específico da Comunicação e amplia o olhar sobre a indústria televisiva aberta no Brasil, enumerando fragilidades do setor e apontando possíveis estratégias para que a televisão brasileira possa se adaptar à nova estrutura da comunicação que está se formando em nosso país.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese teve por objetivo saber como o corpo docente da Universidade Estadual de Mato Grosso do Sul (UEMS) percebe, entende e reage ante a incorporação e utilização das Tecnologias de Informação e Comunicação (TICs) nos cursos de graduação dessa Instituição, considerando os novos processos comunicacionais dialógicos que elas podem proporcionar na sociedade atual. Metodologicamente, a tese é composta por pesquisa bibliográfica, buscando fundamentar as áreas da Educação e Comunicação, assim como a Educomunicação; pesquisa documental para contextualização do lócus da pesquisa e de uma pesquisa exploratória a partir da aplicação de um questionário online a 165 docentes da UEMS, que responderam voluntariamente. Verificou-se que os professores utilizam as TICs cotidianamente nas atividades pessoais e, em menor escala, nos ambientes profissionais. Os desafios estão em se formar melhor esse docente e oferecer capacitação continuada para que utilizem de forma mais eficaz as TICs nas salas de aula. Destaca-se ainda que os avanços em tecnologia e os novos ecossistemas comunicacionais construíram novas e outras realidades, tornando a aprendizagem um fator não linear, exigindo-se revisão nos projetos pedagógicos na educação superior para que estes viabilizem diálogos propositivos entre a comunicação e a educação. A infraestrutura institucional para as TICs é outro entrave apontado, tanto na aquisição como na manutenção desses aparatos tecnológicos pela Universidade. Ao final, propõe-se realizar estudos e pesquisas que possam discutir alterações nos regimes contratuais de trabalho dos docentes, uma vez que, para atuar com as TICs de maneira apropriada, exige-se mais tempo e dedicação do docente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente relatório regista a descrição do processo de trabalho de um projecto de investigação inserido no âmbito do Mestrado em Ilustração e Animação, do Instituto Politécnico de Cávado e do Ave. Este projecto, intitulado de “Histórias Sem Interesse”, resume-se no contínuo desenvolvimento de uma série de cartoons, tanto ao nível ilustrado como animado, e ao estudo das diferenças metodológicas na sua construção para os dois media. As tiras – ou comic strips – e os clips animados resultantes, são inspirados no dia-a-dia de uma jovem adulta (com apontamentos de carácter autobiográfico) e na subsistência social, académica e profissional, deparando-se com inúmeros episódios do quotidiano urbano. Estas histórias assumem um olhar humorístico, ainda que baseadas na experiência pessoal enquanto autora, assim como na dos restantes intervenientes. A partir desta premissa, pretendeu-se que a análise da relação entre as versões estática e animada fosse concretizada através de uma comparação de processos de construção e, numa segunda fase, entre os métodos e resultados da auto-publicação de ambas, levada a cabo por meio das plataformas digitais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this paper is to analyze the street demonstrations occurred last June and July 2013, which appear as samples of the hegemonic fights in course in Brazil, during the so-called Big Wave of the social groups in conflict nowadays in the country. Among other questions, this study tries to explain how the varied stages of these fighting groups influenced their late ones. For that, it takes into consideration the bibliography available not only on these groups, but also on the social and political contemporary Brazil. That is why it evaluates political documents, as well as opinion pieces, news and others disseminated by the press or by political groups. Speeches made by political leaderships, as, for example, that one the President Dilma Roussef made on 21 July 2013, deserves close analysis. This also applies to contributions made by secondary data, poll institutions and IBGE’s socio-economic data. Categories and concepts of Antonio Gramsci’s political sociology are used here as theoretic bases. In fact, it favors the hypothesis that, during the dispute for the intellectual and moral command of demonstrations on July 2013, a certain middle-class conservative ideology emerged on scene. This group conquered the agreement of hegemonic mass media acting now as a political party, here designated as media party. These media resorted to platforms preexistent to the demonstration movements, especially their rejection to political organizations and programs in order to ascend as the demonstrations’ leaders along a certain period in which corruption appeared as the central theme of these efforts, while the government tried to get control of the situation. In view of the several forces and issues at stake, the present study contributes to the discussion about the current reality in Brazil and its perspectives, without losing sight of the centrality of the June Movements as political and ideological milestones

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Primary processing of natural gas platforms as Mexilhão Field (PMXL-1 ) in the Santos Basin, where monoethylene glycol (MEG) has been used to inhibit the formation of hydrates, present operational problems caused by salt scale in the recovery unit of MEG. Bibliographic search and data analysis of salt solubility in mixed solvents, namely water and MEG, indicate that experimental reports are available to a relatively restricted number of ionic species present in the produced water, such as NaCl and KCl. The aim of this study was to develop a method for calculating of salt solubilities in mixed solvent mixtures, in explantion, NaCl or KCl in aqueous mixtures of MEG. The method of calculating extend the Pitzer model, with the approach Lorimer, for aqueous systems containing a salt and another solvent (MEG). Python language in the Integrated Development Environment (IDE) Eclipse was used in the creation of the computational applications. The results indicate the feasibility of the proposed calculation method for a systematic series of salt (NaCl or KCl) solubility data in aqueous mixtures of MEG at various temperatures. Moreover, the application of the developed tool in Python has proven to be suitable for parameter estimation and simulation purposes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cloud Computing is a paradigm that enables the access, in a simple and pervasive way, through the network, to shared and configurable computing resources. Such resources can be offered on demand to users in a pay-per-use model. With the advance of this paradigm, a single service offered by a cloud platform might not be enough to meet all the requirements of clients. Ergo, it is needed to compose services provided by different cloud platforms. However, current cloud platforms are not implemented using common standards, each one has its own APIs and development tools, which is a barrier for composing different services. In this context, the Cloud Integrator, a service-oriented middleware platform, provides an environment to facilitate the development and execution of multi-cloud applications. The applications are compositions of services, from different cloud platforms and, represented by abstract workflows. However, Cloud Integrator has some limitations, such as: (i) applications are locally executed; (ii) users cannot specify the application in terms of its inputs and outputs, and; (iii) experienced users cannot directly determine the concrete Web services that will perform the workflow. In order to deal with such limitations, this work proposes Cloud Stratus, a middleware platform that extends Cloud Integrator and offers different ways to specify an application: as an abstract workflow or a complete/partial execution flow. The platform enables the application deployment in cloud virtual machines, so that several users can access it through the Internet. It also supports the access and management of virtual machines in different cloud platforms and provides services monitoring mechanisms and assessment of QoS parameters. Cloud Stratus was validated through a case study that consists of an application that uses different services provided by different cloud platforms. Cloud Stratus was also evaluated through computing experiments that analyze the performance of its processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wireless Sensor and Actuator Networks (WSAN) are a key component in Ubiquitous Computing Systems and have many applications in different knowledge domains. Programming for such networks is very hard and requires developers to know the available sensor platforms specificities, increasing the learning curve for developing WSAN applications. In this work, an MDA (Model-Driven Architecture) approach for WSAN applications development called ArchWiSeN is proposed. The goal of such approach is to facilitate the development task by providing: (i) A WSAN domain-specific language, (ii) a methodology for WSAN application development; and (iii) an MDA infrastructure composed of several software artifacts (PIM, PSMs and transformations). ArchWiSeN allows the direct contribution of domain experts in the WSAN application development without the need of specialized knowledge on WSAN platforms and, at the same time, allows network experts to manage the application requirements without the need for specific knowledge of the application domain. Furthermore, this approach also aims to enable developers to express and validate functional and non-functional requirements of the application, incorporate services offered by WSAN middleware platforms and promote reuse of the developed software artifacts. In this sense, this Thesis proposes an approach that includes all WSAN development stages for current and emerging scenarios through the proposed MDA infrastructure. An evaluation of the proposal was performed by: (i) a proof of concept encompassing three different scenarios performed with the usage of the MDA infrastructure to describe the WSAN development process using the application engineering process, (ii) a controlled experiment to assess the use of the proposed approach compared to traditional method of WSAN application development, (iii) the analysis of ArchWiSeN support of middleware services to ensure that WSAN applications using such services can achieve their requirements ; and (iv) systematic analysis of ArchWiSeN in terms of desired characteristics for MDA tool when compared with other existing MDA tools for WSAN.