928 resultados para Telefonia móvel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo procura verificar como ocorre a colaboração dos usuários no conteúdo informativo do Portal R7, a partir da nova configuração da internet, a web 2.0, criada em 2004. O termo web 2.0 surgiu para qualificar uma segunda geração de comunidades e serviços, em um ambiente de interação e participação que engloba diversas linguagens. Com o crescimento da adesão à tecnologia digital, algumas barreiras que limitavam a colaboração nos conteúdos informativos foram superadas e o ambiente comunicacional tornou-se um espaço de intercâmbio para experiências e práticas do cotidiano. Nesse cenário, os internautas passam a ter uma relação mais aproximativa nos processos midiáticos presentes no suporte digital, no qual o cidadão pode se expressar, ter maior visibilidade e se relacionar a partir do momento em que ele produz, publica e compartilha qualquer tipo de conteúdo, seja de caráter informativo ou de entretenimento. A revisão bibliográfica abrangeu autores como Ciro Marcondes Filho, José Marques de Melo, Nelson Traquina, Alex Primo, Ana Brambilla, Marcelo Träsel, Raquel Recuero, Polyana Ferrari, Squirra, entre outros. O método de investigação utilizado é o qualitativo, por meio de uma pesquisa exploratória descritiva, do tipo estudo de caso. Os instrumentos para a investigação foram a observação direta assistemática e a entrevista semiestruturada (ou semiaberta). O principal resultado obtido é que o webjornalismo colaborativo no Portal R7 é prioritariamente induzido pelas redes sociais, especialmente o Facebook e o Twitter, inspirado no “call for action”, como estratégia para chamar à colaboração. As práticas jornalísticas estão intrinsicamente dependentes da ação do usuário, sendo que o jornalista agrega às práticas de checagem uma nova etapa, a de relacionamento com o usuário do Portal, para agregar e fidelizar a audiência, valorizando a colaboração em todas as etapas de produção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa considera a difusão de celulares e smartphones e as consequências deste fato em possibilidades para o ensino-aprendizagem. Aparatos de comunicação sempre estiveram ligados ao processo de ensino-aprendizagem. Entretanto, com o desenvolvimento mais intenso, nas últimas décadas, das Tecnologias de Informação e Comunicação (TIC), essa relação vem ganhando novos contornos. Surge a Internet, a evolução das máquinas computacionais e, recentemente, a explosão dos dispositivos móveis, fornecendo novos produtos e serviços convergentes. Nesse contexto, celulares e smartphones tem sido utilizados e recomendados para apoio e complemento do processo de ensino-aprendizagem: a chamada Aprendizagem Móvel. Esse ramo cresce devido à rápida expansão e barateamento dessas tecnologias na sociedade. Para verificar cientificamente essa relação foi realizada uma pesquisa de natureza qualitativa, do tipo exploratória, com dois projetos de Aprendizagem Móvel em andamento no Brasil, o Palma – Programa de Alfabetização na Língua Materna e o Escola Com Celular – ECC. Assim, a partir dos dados provenientes da pesquisa, identificamos alguns aspectos relacionados ao uso de celulares e smartphones para o processo de ensino-aprendizagem que contribuem na compreensão desse campo ainda em construção no Brasil. O uso desses dispositivos como suporte para processos de ensino-aprendizagem nos projetos estudados é delineado pelos aspectos tecnologia, dispositivo, público e contexto e novas tecnologias e Aprendizagem Móvel. O aspecto dispositivo desdobra-se em dimensões como disseminação, multifuncionalidade e acessibilidade que embasam os projetos, ainda favorece características apontadas como importantes para o processo de ensino-aprendizagem na atualidade, como mobilidade e portabilidade. Os projetos pesquisados demonstram potencial e metodologia adequada aos contextos para os quais foram criados e aplicados. Entretanto, a pesquisa indicou que ao mesmo tempo em que celulares e smartphones representam o ápice da convergência tecnológica e são considerados extremamente populares e acessíveis na sociedade contemporânea, com possibilidades concretas como nos projetos estudados, não conseguiram conquistar uma posição sólida como suporte para o ensino-aprendizagem. Tal indicação se deve, de acordo com o corpus, à carência de alguns fatores, como: fomento, as práticas se mostram extremamente dependentes da iniciativa pública ou privada para sua extensão e continuidade; sensibilização para o uso de tecnologias disponíveis, não consideram o aparelho dos próprios alunos e um planejamento que inclua, capacite e incentive o uso desses dispositivos. Além disso, a pesquisa também destaca a necessidade de uma visão crítica do uso e papel da tecnologia nesses processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the analysis of heart rate variability (HRV) are used temporal series that contains the distances between successive heartbeats in order to assess autonomic regulation of the cardiovascular system. These series are obtained from the electrocardiogram (ECG) signal analysis, which can be affected by different types of artifacts leading to incorrect interpretations in the analysis of the HRV signals. Classic approach to deal with these artifacts implies the use of correction methods, some of them based on interpolation, substitution or statistical techniques. However, there are few studies that shows the accuracy and performance of these correction methods on real HRV signals. This study aims to determine the performance of some linear and non-linear correction methods on HRV signals with induced artefacts by quantification of its linear and nonlinear HRV parameters. As part of the methodology, ECG signals of rats measured using the technique of telemetry were used to generate real heart rate variability signals without any error. In these series were simulated missing points (beats) in different quantities in order to emulate a real experimental situation as accurately as possible. In order to compare recovering efficiency, deletion (DEL), linear interpolation (LI), cubic spline interpolation (CI), moving average window (MAW) and nonlinear predictive interpolation (NPI) were used as correction methods for the series with induced artifacts. The accuracy of each correction method was known through the results obtained after the measurement of the mean value of the series (AVNN), standard deviation (SDNN), root mean square error of the differences between successive heartbeats (RMSSD), Lomb\'s periodogram (LSP), Detrended Fluctuation Analysis (DFA), multiscale entropy (MSE) and symbolic dynamics (SD) on each HRV signal with and without artifacts. The results show that, at low levels of missing points the performance of all correction techniques are very similar with very close values for each HRV parameter. However, at higher levels of losses only the NPI method allows to obtain HRV parameters with low error values and low quantity of significant differences in comparison to the values calculated for the same signals without the presence of missing points.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo da microestrutura e dinâmica molecular de polímeros conjugados é de grande importância para o entendimento das propriedades físicas desta classe de materiais. No presente trabalho utilizou-se técnicas de ressonância magnética nuclear em baixo e alto campo para elucidar os processos de dinâmica molecular e cristalização do polímero Poly(3-(2’-ethylhexyl)thiophene) - P3EHT. O P3EHT é um polímero modelo para tal estudo, pois apresenta temperatura de fusão bem inferior a sua temperatura de degradação. Esta característica permite acompanhar os processos de cristalização in situ utilizando RMN. Além disso, sua similaridade ao já popular P3HT o torna um importante candidato a camada ativa em dispositivos eletrônicos orgânicos. O completo assinalamento do espectro de 13C para o P3EHT foi realizado utilizando as técnicas de defasamento dipolar e HETCOR. Os processos de dinâmica molecular, por sua vez, foram sondados utilizando DIPSHIFT. Observou-se um gradiente de mobilidade na cadeia lateral do polímero. Além disso, os baixos valores de parametros de ordem obtidos em comparação a experimentos similares realizados no P3HT na literatura indicam um aparente aumento no volume livre entre cadeias consecutivas na fase cristalina. Isso indica que a presença do grupo etil adicional no P3EHT causa um completo rearranjo das moléculas e dificulta seu empacotamento. Constatou-se ainda pouca variação das curvas de DIPSHIFT para os carbonos da cadeia lateral como função do método de excitação utilizado, o que aponta para um polímero que apresenta cadeia lateral móvel mesmo em sua fase cristalina. Os dados de dinâmica molecular foram corroborados por medidas de T1, T1ρ e TCH. Utilizando filtros dipolares em baixo campo observou-se três temperaturas de transição para o P3EHT: 250 K, 325 K e 350 K. A cristalização desse material é um processo lento. Verificou-se que o mesmo pode se estender por até até 24h a temperatura ambiente. Mudanças no espectro de 13C utilizando CPMAS em alto campo indicam um ordenamento dos anéis tiofeno (empacotamento π – π) como o principal processo de cristalização para o P3EHT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram estudadas as separações de 18 flavonóides (9 agliconas e 9 glicosídeos) pelas técnicas de Cromatografia Líquida de Alta Eficiência em fase reversa (RP-HPLC) e Cromatografia Micelar Eletrocinética em fluxo reverso (RF-Meck). Em ambas as técnicas foram avaliados solventes puros (metanol, acetonitrila e tetrahidrofurano) e suas misturas como formas de promover a variação de seletividade, através da modificação da fase móvel em HPLC, e da natureza do aditivo orgânico em RF-Meck. Nos estudos efetuados em HPLC utilizando-se gradiente, pode-se comprovar a possibilidade da modelagem do fator de retenção em funçã da proporção de solvente utilizados (MeOH, ACN, THF e suas misturas). Pode-se ainda, com base nos dados de retenção e na análise hierárquica de c1usters, diferenciar quatro diferentes grupos de sistemas cromatográficos com diferentes seletividades para flavonóides agliconas, e outros quatro com diferentes seletividades para glicosídeos. Os sistemas cromatográficos mais ortogonais (cada um pertencente a um grupo de seletividade) foram aplicados na separação de uma planta modelo (Azadirachta indica), de onde pode-se escolher a fase móvel mais seletiva para se otimizar a separação dos flavonóides glicosilados presentes nas folhas desta planta. No método final otimizado pode-se identificar e quantificar cinco dos flavonóides majoritários presentes, sendo três glicosídeos de quercetina (rutina, isoquercitrina e quercitrina) e dois glicosídeos de kaempferol (astragalin e nicotiflorin), em amostras de duas diferentes procedências (Piracicaba-SP e Silvânia-GO). Nos estudos envolvendo a separação dos dezoito flavonóides por RFMEKC pode-se comprovar diferenças significativas de seletividade quando se varia a natureza do solvente orgânico utilizado como aditivo, além de se observar tendências na migração em função das propriedades do solvente adicionado e da estrutura molecular do flavonóide. O solvente de menor eficiência para separação dos flavonóides foi o MeOH. Através da análise dos eletroferogramas obtidos através de um planejamento experimental de misturas, e das trocas de pares críticos observadas nos vários eletrólitos utilizados, obteve-se um método de separação com apenas um par crítico em menos de 12 minutos de corrida. O coeficiente de variação obtido para o fator de retenção foi de 1,5% e para área de 3%, considerando-se cinco injeções. O método desenvolvido foi aplicado com sucesso na identificação dos flavonóides majoritários presentes na planta modelo (Neem), obtendo-se o mesmo resultado do estudo anterior. Como forma de avaliar a concentração de flavonóides totais presentes em espécies vegetais é comum a análise de extratos após hidrólise ácida (conversão de todos glicosídeos em agliconas). Desta forma otimizou-se uma metodologia de separação em RP-HPLC de 8 flavonóides agliconas comumente presentes em alimentos e extratos vegetais de uso cosmético. A otimização foi efetuada mediante um planejamento experimental de misturas, para escolha da fase móvel mais seletiva, e de um planejamento fatorial composto central, para otimização das condições de gradiente. O método obtido foi o mais rápido já visto dentro da literatura consultada. A separação em linha de base foi efetuada em menos de 15 minutos, com coeficientes de variação de área entre 0,1 e 1,8%, coeficiente de correlação de 0,9993 a 0,9994 na faixa de 5 a 100 µg/mL, e limites de quantificação estimados na faixa de 0,1 a 0,21µg/mL. O método desenvolvido foi aplicado na otimização das condições de hidrólise de um extrato de Neem. A otimização foi efetuada através de metodologia de superfície de resposta, levando-se em consideração a concentração de ácido adicionada, o tempo de reação, a temperatura, e a concentração de um antioxidante (ácido ascórbico) adicionado. O resultado da otimização foi uma metodologia de hidrólise com tempo de reação igual a 5 minutos, utilizando-se 1,4 mol/L de HCI, 119°C e 500 µg/mL de ácido ascórbico. Através das metodologias de análise e de hidrólise desenvolvidas pode-se constatar a presença e quantificar no extrato de Neem os flavonóides agliconas quercetina, kaempferol e miricetina. Com o objetivo de se avaliar quais os componentes presentes em extratos vegetais são os responsáveis pelo poder antioxidante atribuído a determinadas plantas, foi montado um sistema de avaliação de poder antioxidante \"on-line\" com reação pós-coluna em HPLC (baseado na literatura) utilizando-se como \"radical livre modelo\" o ABTS. A análise da planta modelo (Neem) neste sistema mostrou que os flavonóides glicosilados identificados nas partes anteriores deste trabalho são os responsáveis pelo poder antioxidante atribuído a esta planta. De posse desta informação, e visando a obtenção de extratos para aplicações cosméticas com poder antioxidante, modelou-se a extração dos flavonóide do Neem em função da composição do solvente extrator (água, etanol , propilenoglicol e suas misturas), de acordo com um planejamento simplex centróide ampliado. Além da previsão da concentração dos princípios ativos pode-se ainda prever outras propriedades dos extratos obtidos, tais como, índice de refração e densidade, muitas vezes constituintes de especificações técnicas de acordo com as aplicações a que se destinam (cremes, xampús, etc).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aplicativos móveis de celulares que coletam dados pessoais estão cada vez mais presentes na rotina do cidadão comum. Associado a estas aplicações, há polêmicas sobre riscos de segurança e de invasão de privacidade, que podem se tornar entraves para aceitação destes sistemas por parte dos usuários. Por outro lado, discute-se o Paradoxo da Privacidade, em que os consumidores revelam mais informações pessoais voluntariamente, apesar de declarar que reconhecem os riscos. Há pouco consenso, nas pesquisas acadêmicas, sobre os motivos deste paradoxo ou mesmo se este fenômeno realmente existe. O objetivo desta pesquisa é analisar como a coleta de informações sensíveis influencia a escolha de aplicativos móveis. A metodologia é o estudo de aplicativos disponíveis em lojas virtuais para celulares através de técnicas qualitativas e quantitativas. Os resultados indicam que os produtos mais populares da loja são aqueles que coletam mais dados pessoais. Porém, em uma análise minuciosa, observa-se que aqueles mais buscados também pertencem a empresas de boa reputação e possuem mais funcionalidades, que exigem maior acesso aos dados privativos do celular. Na survey realizada em seguida, nota-se que os consumidores reduzem o uso dos aplicativos quando consideram que o produto coleta dados excessivamente, mas a estratégia para proteger essas informações pode variar. No grupo dos usuários que usam aplicativos que coletam dados excessivamente, conclui-se que o motivo primordial para compartilhar informações pessoais são as funcionalidades. Além disso, esta pesquisa confirma que comparar os dados solicitados pelos aplicativos com a expectativa inicial do consumidor é um constructo complementar para avaliar preocupações com privacidade, ao invés de simplesmente analisar a quantidade de informações coletadas. O processo desta pesquisa também ilustrou que, dependendo do método utilizado para análise, é possível chegar a resultados opostos sobre a ocorrência ou não do paradoxo. Isso pode dar indícios sobre os motivos da falta de consenso sobre o assunto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescente desenvolvimento na indústria de transporte tornou-se um tema de pesquisa em diversos países, uma vez que as obras de arte especiais até então construídas não foram projetadas para as elevadas cargas atualmente transportadas. Mostra-se necessária uma reavaliação de como a ação do carregamento móvel é levada em consideração. Dessa forma, elaborou-se um estudo de normas e códigos de diversos países sobre o tema. Definem-se algumas combinações de veículos de cargas (CVCs) e analisam-se as conseqüências e a viabilidade do tráfego das mesmas. Essa análise é realizada através da comparação dos esforços solicitantes provocados pelas CVCs e pelos veículos previstos por normas em diversos sistemas estruturais e por meio da verificação da capacidade portante de um projeto típico. Objetivando-se encontrar uma solução que se adequasse à realidade brasileira, é elaborado um estudo sobre como outros países vêm tratando a questão das combinações de veículos de cargas especiais. Ao final do trabalho, constata-se a existência de CVCs que, apesar de atenderem às exigências estabelecidas pelo Conselho Nacional de Trânsito (CONTRAN), são incompatíveis com a as pontes da malha viária nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese propõe uma metodologia de vídeo-mapeamento móvel georreferenciado a partir do desenvolvimento de protótipos que utilizam uma Interface de Geovisualização Multimídia para sincronizar o registro (em vídeo) de um local ou evento de interesse com a rota percorrida pelo veículo de inspeção (sobre mapa ou imagem), através da coleta de dados por sensores móveis: câmera digital, microfone, receptor GNSS e bússola digital. A interface permite a integração desses sensores com os atuais serviços de mapas digitais disponíveis na web. Sistemas como esse melhoram significativamente as análises temporais, a gestão e a tomada de decisão. A interface proposta e desenvolvida no presente trabalho é útil para muitas aplicações como ferramenta de monitoramento e inventário. Esta interface pode ser entendida como o componente visual de um sistema de mapeamento móvel ou como um sistema cartográfico alternativo ou complementar, para aplicações em que a precisão geométrica do receptor GNSS, na modalidade de navegação, é suficiente e sua acessibilidade, um fator competitivo. As aplicações desenvolvidas no presente trabalho foram duas: um sistema de monitoramento e inventário de placas de sinalização viária e um sistema de monitoramento de cheias/secas e inventário de propriedades na borda de reservatórios de hidroelétricas, ambos em pleno funcionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um método rápido utilizando cromatografia liquida (LC) foi desenvolvido para determinação simultânea de 7 pesticidas piretróides (bifentrina, cipermetrina, fenpropatrina, fenvalerato, permetrina, lambda-cialotrina, e deltametrina). Os resíduos são extraídos com acetona e a partição realizada de acordo com o método multi-resíduos DFG-S19, substituindo diclorometano por acetato de etila/ciclohexano (1+1) e purificação usando cromatografia de permeação a gel com uma coluna Biobeads SX3 e acetato de etila/ciclohexano (1+1) como eluente. A separação por LC é realizada com uma coluna LiChrospher 100 RP-18 e acetonitrila/água (8+2) como fase móvel. Os pesticidas são detectados em 212nm. As recuperações dos 7 pesticidas piretróides em amostras de feijão fortificadas em 0,010; 0,100; e 1,000 mg/kg ficaram entre 71-105%. A diferença particular deste método é o limite de quantificação, os quais ficaram entre 0,004-0,011 mg/kg, abaixo de muitos outros métodos de LC descritos na literatura. A cromatografia a gás (GC) com detector de captura de elétrons é mais sensível que a LC, mas o método com LC facilita a identificação dos picos. A GC apresenta muitos picos enquanto a LC apresenta apenas um para a maioria dos piretróides. A análise com LC é uma boa alternativa para a determinação de resíduos de piretróides em feijão. Durante o ano de 2005, um total de 48 amostras de feijão comercializadas na cidade de São Paulo, foram analisadas. Nenhum resíduo de pesticida piretróide foi detectado nas amostras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Friction in hydrodynamic bearings are a major source of losses in car engines ([69]). The extreme loading conditions in those bearings lead to contact between the matching surfaces. In such conditions not only the overall geometry of the bearing is relevant, but also the small-scale topography of the surface determines the bearing performance. The possibility of shaping the surface of lubricated bearings down to the micrometer ([57]) opened the question of whether friction can be reduced by mean of micro-textures, with mixed results. This work focuses in the development of efficient numerical methods to solve thin film (lubrication) problems down to the roughness scale of measured surfaces. Due to the high velocities and the convergent-divergent geometries of hydrodynamic bearings, cavitation takes place. To treat cavitation in the lubrication problem the Elrod- Adams model is used, a mass-conserving model which has proven in careful numerical ([12]) and experimental ([119]) tests to be essential to obtain physically meaningful results. Another relevant aspect of the modeling is that the bearing inertial effects are considered, which is necessary to correctly simulate moving textures. As an application, the effects of micro-texturing the moving surface of the bearing were studied. Realistic values are assumed for the physical parameters defining the problems. Extensive fundamental studies were carried out in the hydrodynamic lubrication regime. Mesh-converged simulations considering the topography of real measured surfaces were also run, and the validity of the lubrication approximation was assessed for such rough surfaces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas críticos son aquellos utilizados en áreas en las cuales las fallas, o los eventos inesperados, pueden ocasionar grandes perdidas de dinero; o quizás peor aún, daños a vidas humanas. Esta clase de sistemas juegan un rol importante en actividades esenciales de la sociedad tales como la medicina y las comunicaciones. Los sistemas críticos, cada vez son más usuales en la vida real, algunos ejemplos de estos son los sistemas de aviones, sistemas para automóviles y sistemas utilizados en telefonia móvil. Para minimizar las fallas, y las perdidas materiales o humanas ocasionadas por el funcionamiento incorrecto de dichos sistemas, se utilizan técnicas de tolerancia a fallas. Estas técnicas permiten que los sistemas continúen funcionando aún bajo la ocurrencia de fallas, o eventos inesperados. Existen diversas técnicas para lograr tolerancia a fallas utilizando, por ejemplo, redundancia a diferentes niveles de abstracción, como, por ejemplo, al nivel de hardware. Sin embargo, estas técnicas dependen fuertemente del sistema, y del contexto en las que se utilizan. Más aún, la mayoría de la técnicas de tolerancia a fallas son usadas a bajo nivel (código fuente o hardware), estimamos que el uso de formalismos rigurosos (con fundamentos matemáticos) pueden llevar al diseño de sistemas tolerantes a fallas y robustos a un nivel de abstracción más alto, a la vez que la utilización de técnicas de verificación que han sido exitosas en la práctica tales como model checking, o la síntesis de controladores, pueden llevar a una verificación y producción automática de sistemas robustos. El objetivo del presente proyecto es estudiar tanto marcos teóricos, que permitan la construcción de sistemas más robustos, como también herramientas automáticas que hagan posible la utilización de estos formalismos en escenarios complejos. Para lograr estos objetivos, será necesario considerar casos de estudios de diferente complejidad, y además que sean relevantes en la práctica. Por ejemplo: bombas de insulina, protocolos de comunicación, sistemas de vuelo y sistemas utilizados con fines médicos. Planeamos obtener prototipos de algunos de estos casos de estudio para evaluar los marcos teóricos propuestos. En los últimos años diferentes formalismos han sido utilizados para razonar sobre sistemas tolerantes a fallas de una forma rigurosa, sin embargo, la mayoría de estos son ad hoc, por lo cual sólo son aplicables a contextos específicos. Planeamos utilizar ciertas lógicas modales, en conjunto con nociones probabilísticas, para obtener un conjunto de herramientas suficientemente generales para que puedan ser utilizadas en diferentes contextos y aplicaciones. Los materiales a utilizar son equipos informáticos, en particular computadoras portátiles para el equipo de trabajo y computadoras más potentes para el testeo y desarrollo del software necesario para lograr los objetivos del proyecto. Para construir los prototipos mencionados se utilizarán equipos de computación estándar (el equipo investigación cuenta con computadoras intel y mac) en conjunto con lenguajes de programación modernos como JAVA o C#. En el caso de que los sistemas de software sean sistemas embebidos; se piensa desarrollar un motor de simulación que permita evaluar el desempeño del software cuando es ejecutado en el dispositivo mencionado. Se espera desarrollar, e investigar, las propiedades de formalismos matemáticos que permitan el desarrollo de sistemas tolerantes a fallas. Además, se desarrollarán herramientas de software para que estos sistemas tolerantes a fallas puedan verificarse, o obtenerse automáticamente. Los resultados obtenidos serán difundidos por medio de publicaciones en revistas del área. El desarrollo de sistemas tolerantes a fallas por medio de técnicas rigurosas, a diferentes niveles de abstracción (captura de requisitos, diseño, implementación y validación), permitirá minimizar los riesgos inherentes en actividades críticas.