973 resultados para Plataformas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Systems of incised valleys have been studied in different continental shelves, including the Brazilian continental margin. The interest to characterize this feature is given by the information that it can provide variations on sea level, as well as the ability to host economically significant quantities of hydrocarbons in reservoirs located in deposits filling of the incised valleys. This thesis has the overall objective to characterize the morphology and sedimentary cover of the incised valley Apodi-Mossoró, located in the Northern Continental shelf of Rio Grande do Norte state, adjacent to Areia Branca city. The methodology included the integration of satellite imagery, bathymetric data, sedimentological data, shallow seismic, and the identification of foraminifera. The results indicate that the ApodiMossró incised valley is currently formed by two channels, shallow channel and deep channel, which have distinct morphological and sedimentological characteristics. The deep channel has connection with one of the heads of the Apodi Canyon, located in the slope area. The acquisition, processing and interpretation of shallow seismic data allowed the recognition of the depositional surface, erosional surface, discordance, and sismofaceis. The erosional surface mapped from shallow seismic sections is possibly a indicative of an ancient surface of valley incision, where it would probably be associated with the limit Pleistocene/Holocene. Different sismofaceis were identified and reflect the rise in sea level with standards sometimes agradacional, sometimes progradational. The thickness of sediments on this surface was estimated at a maximum of 22m thick in the central portion of the incised valley. Statistically, there are differences between the adjacent continental shelf and channels, and between these channels, for the content of calcium carbonate, organic matter, sand and mud perceptual, except for the gravel grain size. The analysis of living and dead foraminifera showed the presence of fifty species distributed in regards to morphology, depth and type of sediment. Four type of seismic echocharacteres were identified and mapped, as well as their bedforms, indicating different sedimentary processes along the incised valley. The integration of results suggests an activation of the Apodi-Mossoró incised valley in the Late Pleistocene.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cloud computing can be defined as a distributed computational model by through resources (hardware, storage, development platforms and communication) are shared, as paid services accessible with minimal management effort and interaction. A great benefit of this model is to enable the use of various providers (e.g a multi-cloud architecture) to compose a set of services in order to obtain an optimal configuration for performance and cost. However, the multi-cloud use is precluded by the problem of cloud lock-in. The cloud lock-in is the dependency between an application and a cloud platform. It is commonly addressed by three strategies: (i) use of intermediate layer that stands to consumers of cloud services and the provider, (ii) use of standardized interfaces to access the cloud, or (iii) use of models with open specifications. This paper outlines an approach to evaluate these strategies. This approach was performed and it was found that despite the advances made by these strategies, none of them actually solves the problem of lock-in cloud. In this sense, this work proposes the use of Semantic Web to avoid cloud lock-in, where RDF models are used to specify the features of a cloud, which are managed by SPARQL queries. In this direction, this work: (i) presents an evaluation model that quantifies the problem of cloud lock-in, (ii) evaluates the cloud lock-in from three multi-cloud solutions and three cloud platforms, (iii) proposes using RDF and SPARQL on management of cloud resources, (iv) presents the cloud Query Manager (CQM), an SPARQL server that implements the proposal, and (v) comparing three multi-cloud solutions in relation to CQM on the response time and the effectiveness in the resolution of cloud lock-in.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multi-Cloud Applications are composed of services offered by multiple cloud platforms where the user/developer has full knowledge of the use of such platforms. The use of multiple cloud platforms avoids the following problems: (i) vendor lock-in, which is dependency on the application of a certain cloud platform, which is prejudicial in the case of degradation or failure of platform services, or even price increasing on service usage; (ii) degradation or failure of the application due to fluctuations in quality of service (QoS) provided by some cloud platform, or even due to a failure of any service. In multi-cloud scenario is possible to change a service in failure or with QoS problems for an equivalent of another cloud platform. So that an application can adopt the perspective multi-cloud is necessary to create mechanisms that are able to select which cloud services/platforms should be used in accordance with the requirements determined by the programmer/user. In this context, the major challenges in terms of development of such applications include questions such as: (i) the choice of which underlying services and cloud computing platforms should be used based on the defined user requirements in terms of functionality and quality (ii) the need to continually monitor the dynamic information (such as response time, availability, price, availability), related to cloud services, in addition to the wide variety of services, and (iii) the need to adapt the application if QoS violations affect user defined requirements. This PhD thesis proposes an approach for dynamic adaptation of multi-cloud applications to be applied when a service is unavailable or when the requirements set by the user/developer point out that other available multi-cloud configuration meets more efficiently. Thus, this work proposes a strategy composed of two phases. The first phase consists of the application modeling, exploring the similarities representation capacity and variability proposals in the context of the paradigm of Software Product Lines (SPL). In this phase it is used an extended feature model to specify the cloud service configuration to be used by the application (similarities) and the different possible providers for each service (variability). Furthermore, the non-functional requirements associated with cloud services are specified by properties in this model by describing dynamic information about these services. The second phase consists of an autonomic process based on MAPE-K control loop, which is responsible for selecting, optimally, a multicloud configuration that meets the established requirements, and perform the adaptation. The adaptation strategy proposed is independent of the used programming technique for performing the adaptation. In this work we implement the adaptation strategy using various programming techniques such as aspect-oriented programming, context-oriented programming and components and services oriented programming. Based on the proposed steps, we tried to assess the following: (i) the process of modeling and the specification of non-functional requirements can ensure effective monitoring of user satisfaction; (ii) if the optimal selection process presents significant gains compared to sequential approach; and (iii) which techniques have the best trade-off when compared efforts to development/modularity and performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This research aims to understand how the affective components involved in transgender relations with documents constitute specific ways in which these people recognize themselves and build their bodies and their paths, their life projects and their relationship with others. We understand that the documents, if the personal identification or those produced by social movements, legal actors and health and the State, are experienced by trans people beyond administrative functions that are initially thought, but also involve a series of emotional experiences mark their subjective processes, in how these people produce themselves and design in the world their sociality networks. We elected as research field two institutions located in the city of João Pessoa (Paraíba State), noting the intense institutional movement, political, social in favor of the rights of transexuals that have occurred in that city in recent years. Thus, the Rights Reference Centre for LGBT and Fight Against Homophobia (Espaço LGBT) and Health Clinic of Transvestites and Transexuals (Ambulatório de Saúde de Travestis e Transexuais) were the spaces where we find our interlocutors and analyze their experiences with the documents noting two key aspects: the search for first name change in the civil registry and the relationship of trans people with documents produced by the health policies and services such as protocols, records, receipts and psychiatric reports. We realized that although there is disagreement about the perception that our interlocutors have on the documentation that regulates health services, all reported experiencing embarrassment in social situations when you have those who make use of a document that is not consistent with the performance and “social face” taken. In addition to the reports of embarrassment, we saw that the discussion of social distress and trauma has grounded the platforms of social movements, public policy, legal processes and become “narratives of pains” that present strong potential micro-political on demand for rights to “trans people”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Telehealth Brazil Networks Program, created in 2007 with the aim of strengthening primary care and the unified health system (SUS - Sistema Único de Saúde), uses information and communication technologies for distance learning activities related to health. The use of technology enables the interaction between health professionals and / or their patients, furthering the ability of Family Health Teams (FHT). The program is grounded in law, which determines a number of technologies, protocols and processes which guide the work of Telehealth nucleus in the provision of services to the population. Among these services is teleconsulting, which is registered consultation and held between workers, professionals and managers of healthcare through bidirectional telecommunication instruments, in order to answer questions about clinical procedures, health actions and questions on the dossier of work. With the expansion of the program in 2011, was possible to detect problems and challenges that cover virtually all nucleus at different scales for each region. Among these problems can list the heterogeneity of platforms, especially teleconsulting, and low internet coverage in the municipalities, mainly in the interior cities of Brazil. From this perspective, the aim of this paper is to propose a distributed architecture, using mobile computing to enable the sending of teleconsultation. This architecture works offline, so that when internet connection data will be synchronized with the server. This data will travel on compressed to reduce the need for high transmission rates. Any Telehealth Nucleus can use this architecture, through an external service, which will be coupled through a communication interface.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso das mídias sociais digitais como meio de divulgação de produtos, serviços e conteúdos organizacionais tem crescido nas últimas décadas e ganhou especial atenção nos planejamentos de comunicação organizacional e nos estudos acadêmicos sobre o tema. Nesse sentido, o segmento de empresas esportivas atua com destaque, despertando o interesse e a empatia do consumidor. Por meio de análise bibliográfica e estudo empírico, esta pesquisa teve como objetivo investigar as ações de comunicação mercadológica do segmento esportivo no ambiente digital conectado, através de um estudo de caso múltiplo das empresas Nike e Adidas. Para a obtenção dos dados, foram realizadas entrevistas em profundidade com profissionais do mercado e aplicado um protocolo de investigação de redes sociais digitais nos perfis das duas empresas. Após a coleta dos dados, estes foram analisados à luz das teorias estudadas nos capítulos iniciais (que abordaram temas como comunicação organizacional, comunicação digital, esporte e comunicação esportiva), e foi possível concluir, entre outros pontos, que, no universo do segmento esportivo, a comunicação digital conectada não prioriza o diálogo com seus públicos de interesse, sendo essencialmente baseada na divulgação unilateral de conteúdos, nem tampouco explora a potencialidade de cada uma das plataformas digitais disponíveis, replicando conteúdos em diferentes ambientes. Ficou evidente, também, o uso dos elementos constituintes do universo esportivo como argumentos estratégicos de comunicação das empresas, decorrente de sua capacidade de estreitar os laços relacionais com os públicos de interesse, por meio de seus apelos simbólicos de fácil identificação social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tese investiga se, mesmo com a livre produção de notícias, indivíduos que postam informações em websites de conteúdos colaborativos, denominados como interagentes, tendem a reproduzir informações que foram agendadas por telejornais. Para verificar essa análise, este estudo faz uma comparação entre os veículos de conteúdos colaborativos Vc repórter, Vc no G1 e Eu repórter com os telejornais SBT Brasil, Jornal Nacional, Jornal da Record e Jornal da Band, buscando averiguar se os referidos telejornais pautam as plataformas colaborativas. A hipótese norteadora parte da premissa que os telejornais brasileiros vêm construindo ao longo do tempo um vínculo de credibilidade com o telespectador. Portanto, é possível projetar que o interagente utilize os mesmos critérios de escolha dos broadcasts e reproduza informações semelhantes em sites de conteúdo colaborativo. O método utilizado foi a análise de conteúdo e tem como base os estudos de Laurence Bardin. O tipo de pesquisa adotado foi o quantitativo e para isso foi construído um sistema computacional denominado New Crawler App para coletar o material utilizado nesta pesquisa. Concluiu-se que, dentro da amostra do universo pesquisado, há agendamentos dos telejornais frente ao conteúdo colaborativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução tecnológica na comunicação contemporânea estrutura sistemas digitais via redes de computadores conectados e exploração maciça de dispositivos tecnológicos. Os dados digitais captados e distribuídos via aplicativos instalados em smartphones criam ambiente dinâmico comunicacional. O Jornalismo e a Comunicação tentam se adaptar ao novo ecossistema informacional impetrado pelas constantes inovações tecnológicas que possibilitam a criação de novos ambientes e sistemas para acesso à informação de relevância social. Surgem novas ferramentas para produção e distribuição de conteúdos jornalísticos, produtos baseados em dados e interações inteligentes, algoritmos usados em diversos processos, plataformas hiperlocais e sistemas de narrativas e produção digitais. Nesse contexto, o objetivo da pesquisa foi elaborar uma análise e comparação entre produtos de mídia e tecnologia específicos. Se as novas tecnologias acrescentam atributos às produções e narrativas jornalísticas, seus impactos na prática da atividade e também se há modificação nos processos de produção de informação de relevância social em relação aos processos jornalísticos tradicionais e consolidados. Investiga se o uso de informações insertadas pelos usuários, em tempo real, melhora a qualidade das narrativas emergentes através de dispositivos móveis e se a gamificação ou ludificação altera a percepção de credibilidade do jornalismo. Para que assim seja repensado a forma de se produzir e gerar informação e conhecimento para os públicos que demandam conteúdo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los videojuegos educativos, también conocidos como juegos serios, son una herramienta educacional muy poderosa, cuya utilización no está muy extendida en la educación. Estos Serious Games son costosos de producir, y son muy dependientes de los cambios tecnológicos, tanto en el Software como en el Hardware. Por ejemplo, multitud de Serious Games estaban producidos en Adobe Flash o Java, y hoy en día no pueden ser ejecutados en algunos de los dispositivos más nuevos. Uno de los pioneros de los videojuegos serios "Science Pirates: The Curse of Brownbeard", actualmente no está disponible porque no ha sido adaptado a los nuevos sistemas operativos. Por lo tanto, el ciclo de vida de los juegos serios debe ser simpli- ficado para hacerlos una herramienta de confianza. En el equipo de desarrollo e-UCM se ha creado una herramienta de autoría de juegos serios basada en Java llamada eAdventure, así como multitud de juegos serios en colaboración con multitud de instituciones. Para lidiar con los problemas anteriormente identificados, y simplificar el proceso de creación y mantenimiento de juegos serios, y reutilizando la experiencia previa, se ha creado uAdventure. Este proyecto es un editor e intérprete construido sobre Unity3D, que permite la creación de videojuegos educativos sin requisitos de conocimientos de programación. Como uAdventure está construido sobre Unity3D, permite la exportación de videojuegos, de forma sencilla para múltiples plataformas, y los hace más resistentes a los cambios tecnológicos. A lo largo de esta memoria, se explica el proceso de generación del intérprete de videojuegos, así como la integración con el editor desarrollado por Piotr Marszal, en el que se realizan aportaciones, generando editores. Además, para realizar una labor de innovación, y dar soporte a los juegos cuyos desarrolladores no puedan invertir tiempo en transformar sus videojuegos al nuevo sistema de uAdventure, se ha desarrollado un emulador independiente capaz de importar y ejecutar juegos producidos con eAdventure en cualquier plataforma. Finalmente, para dar soporte y mejorar la parte de evaluación de los alumnos, se ha integrado RAGE en la infraestructura del proyecto, permitiendo el acceso a herramientas de Learning Analitics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo tiene su origen en la necesidad de herramientas de apoyo al aprendizaje para los alumnos en las clases de Genética de la Facultad de Biología de la Universidad Complutense de Madrid. En esta asignatura, el equipo docente ha desarrollado aplicaciones para dispositivos móviles destinadas a los alumnos. Las aplicaciones les permiten trabajar con materiales relacionados con aspectos clave de la asignatura. Estas aplicaciones contienen apartados de teoría y ejercicios. Los ejercicios cuentan con asistentes automatizados que guían al alumno para su realización y autocorrección. En su forma actual, las aplicaciones presentan limitaciones tanto desde el punto de vista de su diseño como de la funcionalidad que ofrecen. El actual diseño no aplica las técnicas comunes de Ingeniería del Software respecto a aplicaciones cliente-servidor. Ello las hace difíciles de mantener cuando se plantea abordar nuevas funcionalidades y plataformas, o facilitar la creación de nuevos materiales de la asignatura. Ello ha limitado su expansión para incorporar nuevos tipos de materiales (en particular diferentes tipos de ejercicios), integrarlas con otras herramientas (por ejemplo, el Campus Virtual de la universidad) o permitir un apoyo efectivo a la comunidad de aprendizaje formada por alumnos y docentes (por ejemplo, para que los docentes supervisen la evolución de los alumnos y estos puedan obtener información adicional de los profesores). Para abordar esta situación se propone una aplicación móvil que engobe a todas las aplicaciones anteriores que se habían creado para las clases de Genética. Se utilizará un modelo cliente-servidor para mejorar sus capacidades funcionales, de modo que cumpla con los requisitos establecidos. Entre estos se incluye un control de los usuarios que utilizan la aplicación, y que se optimice la memoria local utilizada por la aplicación, permitiendo así el uso de imágenes más pesadas. Además, este modelo facilitará las tareas de mantenimiento de la aplicación, por ejemplo incluir nuevo material. Por otro lado, también se propone rediseñar la interfaz de la aplicación, de modo que sea más accesible desde el punto de vista de la usabilidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El flujo óptico y la estimación de movimiento es área de conocimiento muy importante usado en otros campos del conocimiento como el de la seguridad o el de la bioinformática. En estos sectores, se demandan aplicaciones de flujo óptico que realicen actividades muy importantes con tiempos de ejecución lo más bajos posibles, llegando a tiempo real si es posible. Debido a la gran complejidad de cálculos que siguen a este tipo de algoritmos como se observará en la sección de resultados, la aceleración de estos es una parte vital para dar soporte y conseguir ese tiempo real tan buscado. Por lo que planteamos como objetivo para este TFG la aceleración de este tipo de algoritmos mediante diversos tipos de aceleradores usando OpenCL y de paso demostrar que OpenCL es una buena herramienta que permite códigos paralelizados con un gran Speedup a la par que funcionar en toda una diversa gama de dispositivos tan distintos como un GPU y una FPGA. Para lo anteriormente mencionado trataremos de desarrollar un código para cada algoritmo y optimizarlo de forma no especifica a una plataforma para posteriormente ejecutarlo sobre las diversas plataformas y medir tiempos y error para cada algoritmo. Para el desarrollo de este proyecto partimos de la teoría de dos algoritmos ya existentes: Lucas&Kanade monoescala y el Horn&Schunck. Además, usaremos estímulos para estos algoritmos muy aceptados por la comunidad como pueden ser el RubberWhale o los Grove, los cuales nos ayudarán a establecer la corrección de estos algoritmos y analizar su precisión, dando así un estudio referencia para saber cual escoger.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório de estágio apresentado para a obtenção do grau de mestre em Educação e Comunicação Multimédia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório de estágio para obtenção do grau de mestre na área de Educação e Comunicação Multimédia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Creación de un material docente (para web y plataformas móviles) pintando las estructuras anatómicas músculo-esqueléticas sobre caballos vivos para el aprendizaje de la anatomía funcional y biomecánica equina de forma sencilla, visual y didáctica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente artículo analizaremos la relación de los colectivos que realizan prácticas corporales en la ciudad de La Plata con el uso de plataformas digitales e interactivas como Facebook, Twiter y You Tube, observaremos las convocatorias, la rápida respuesta y la concreción de encuentros a partir de la utilización de dichas plataformas y como las tecnologías de información y comunicación juegan un rol crucial en la participación, nucleamiento y difusión de las emergentes prácticas corporales. Tomaremos el caso del Slackline para ejemplificar la participación juvenil a partir de la utilización de las tecnologías 2.0 que inciden directamente en la articulación de las prácticas locales con las performances globales, incentivando y masificando (como el invisible motor subyacente) los encuentros de los jóvenes practicantes. Por otra parte pondremos de manifiesto las transformaciones sociales que el uso de estas tecnologías implica como mediación posibilitadora de interrelaciones, valoraciones culturales y posicionamientos de orden socio-político