942 resultados para Banda filarmónica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A popularização das tecnologias de acesso à Internet por “banda larga” suportam a crescente proliferação de aplicações do tipo “par-a-par” (peer-to-peer), onde o usuário doméstico, tipicamente consumidor de informação, passa também a atuar como provedor. De forma simultânea, há uma popularização crescente dos jogos em rede, especialmente dos “jogos maciçamente multijogador” (MMG ou massively multiplayer game) onde milhares de jogadores interagem, em tempo real, em mundos virtuais de estado persistente. Os MMGs disponíveis atualmente, como EverQuest e Ultima Online, são implementados como sistemas centralizados, que realizam toda a simulação do jogo no “lado servidor”. Este modelo propicia controle de acesso ao jogo pelo servidor, além de ser muito resistente a jogadores trapaceiros. Porém, a abordagem cliente-servidor não é suficientemente escalável, especialmente para pequenas empresas ou projetos de pesquisa que não podem pagar os altos custos de processamento e comunicação dos servidores de MMGs centralizados. Este trabalho propõe o FreeMMG, um modelo híbrido, cliente-servidor e par-a-par, de suporte a jogos maciçamente multijogador de estratégia em tempo real (MMORTS ou massively multiplayer online real-time strategy). O servidor FreeMMG é escalável pois delega a maior parte da tarefa de simulação do jogo para uma rede par-apar, formada pelos clientes. É demonstrado que o FreeMMG é resistente a certos tipos de trapaças, pois cada segmento da simulação distribuída é replicado em vários clientes. Como protótipo do modelo, foi implementado o jogo FreeMMGWizards, que foi utilizado para gerar testes de escalabilidade com até 300 clientes simulados e conectados simultaneamente no mesmo servidor Os resultados de escalabilidade obtidos são promissores, pois mostram que o tráfego gerado em uma rede FreeMMG, entre servidor e clientes, é significativamente menor se comparado com uma alternativa puramente cliente-servidor, especialmente se for considerado o suporte a jogos maciçamente multijogador de estratégia em tempo real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Estudo foi desenvolvido a fim de apresentar o comércio eletrônico brasileiro e definir o perfil dos consumidores que compram online. Estudo esse que se baseou em uma revisão bibliográfica sobre os temas citados, bem como trouxe à luz, os principais problemas encontrados para o estabelecimento efetivo do comércio eletrônico no Brasil. Não somente foram apresentados os diferentes perfis de consumidor definidos por autores da área, mas também, dados reais de pesquisas sobre esse consumidor. Os principais conceitos do processo de motivação e decisão de compra na Internet também foram contemplados nesta dissertação. Como se trata de Internet, esse Estudo procurou retratar uma fase que certamente se tornará obsoleta no futuro, dado a velocidade de evolução desse canal. Conclui-se, contudo que o consumidor brasileiro de Internet, que essa evolução mantém resquícios de resistência por medo do desconhecido e dificuldade de acesso à rede, através de uma conexão em banda larga. Eles compram por impulso e precisam de estímulos diferentes para comprar e têm uma tendência ao abandono de compra, caso haja algum fator complicador. Ou seja, um consumidor exigente, qualificado e bem instruído, que preza pelo tempo que dispõe para satisfazer seus prazeres pessoais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Brasil possui um dos mercados de serviços de comunicação e mídia que mais cresce no mundo. Grande parte deste crescimento pode ser atribuída à evolução tecnológica e às recentes alterações no ambiente competitivo, os quais favoreceram a convergência de serviços antes vendidos separadamente - voz, dados e TV. Isto elevou a atratividade destes serviços, contribuindo também para a redução de seu preço, por meio, principalmente, dos ganhos de escala, impulsionando seu crescimento. Este crescimento atraiu mais competidores ao mercado, o que, intensificado por mudanças regulatórias, eleva a importância da correta precificação dos pacotes de serviços. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra destes serviços é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de participação de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos pacotes de serviços multimídia comercializados no mercado da cidade de São Paulo e seus respectivos preços implícitos. São 371 pacotes distintos contendo de um a três tipos diferentes de serviços analisados com base nos preços praticados em março de 2009. Como resultado, foram identificados intensos prêmios de preço associados aos canais do grupo Telecine, aos canais esportivos, infantis e de filmes e séries, bem como às variáveis ligadas às velocidades de download e upload.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é criar um modelo que permita predizer quais clientes possuem tendência a abandonar a empresa (churn) através da base de dados de solicitações de reparo dos clientes de banda larga. Este tema ganha importância à medida que a concorrência neste mercado se acirra e novas tecnologias para acesso à banda larga são disponibilizadas aos clientes. Para este estudo foram utilizadas as bases de dados de solicitações de reparo e de solicitações de desligamento do serviço. O primeiro modelo criado utilizou as variáveis tempo até o reparo e a quantidade de solicitações de reparo. Na busca por um modelo com maior nível de acerto, foi criado um segundo modelo no qual se consideraram as variáveis motivo da reclamação e causa do defeito. O resultados do estudo indicam que as variáveis tempo até o reparo e quantidade de solicitações de reparo influenciam na taxa de solicitações de desligamento, assim como alguns motivos de solicitação de reparo e causa de defeito são mais relevantes para a decisão de desligamento. No entanto, o nível de acerto dos modelos criados é baixo. Portanto, a utilização destes modelos para identificação e abordagem de clientes propensos a solicitar desligamento implica em ajustes no nível de certeza do modelo e consequente redução na quantidade de clientes a serem abordados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescente avanço nas mais diversas áreas da eletrônica, desde instrumentação em baixa freqüência até telecomunicações operando em freqüências muito elevadas, e a necessidade de soluções baratas em curto espaço de tempo que acompanhem a demanda de mercado, torna a procura por circuitos programáveis, tanto digitais como analógicos, um ponto comum em diversas pesquisas. Os dispositivos digitais programáveis, que têm como grande representante os Field Programmable Gate Arrays (FPGAs), vêm apresentando um elevado e contínuo crescimento em termos de complexidade, desempenho e número de transistores integrados, já há várias décadas. O desenvolvimento de dispositivos analógicos programáveis (Field Programmable Analog Arrays – FPAAs), entretanto, esbarra em dois pontos fundamentais que tornam sua evolução um tanto latente: a estreita largura de banda alcançada, conseqüência da necessidade de um grande número de chaves de programação e reconfiguração, e a elevada área consumida por componentes analógicos como resistores e capacitores, quando integrados em processos VLSI Este trabalho apresenta uma proposta para aumentar a faixa de freqüências das aplicações passíveis de serem utilizadas tanto em FPAAs comerciais quanto em outros FPAAs, através da utilização de uma interface de translação e seleção de sinais, mantendo características de programabilidade do FPAA em questão, sem aumentar em muito sua potência consumida. A proposta, a simulação e a implementação da interface são apresentadas ao longo desta dissertação. Resultados de simulação e resultados práticos obtidos comprovam a eficácia da proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A disseminação do formato mp3 como padrão para arquivos de música, aliada ao crescimento da Internet, fez surgir uma poderosa rede de distribuição de música online. A extrema disponibilidade, diversidade de escolha e facilidade de acesso para quem possui banda larga em seus computadores fez crescer o download de músicas pela Internet, revolucionando o mundo fonográfico. O objetivo geral deste estudo é identificar quais fatores, na perspectiva do consumidor, têm maior influência no download gratuito de música pela Internet através de uma pesquisa exploratória de duas fases. Na primeira fase, qualitativa, foram realizadas entrevistas não estruturadas com usuários e consumidores de redes peer-to-peer de download de música pela Internet e entrevista semi-estruturada com um ex-executivo da indústria fonográfica. Na fase seguinte, quantitativa, foram aplicados questionários estruturados a pessoas que efetuam download de música pela Internet. Adotou-se a regressão linear múltipla como modelo para interpretar os dados colhidos junto à amostra e testar as hipóteses relacionadas as variáveis: acessibilidade ao produto, percepção de injustiça no preço e faixa etária. Os resultados sugerem a não rejeição das três hipóteses estudadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O poli (ácido L-láctico) (PLLA) é um material de grande interesse na área científica, por ser um polímero biodegradável e bioabsorvível, e pela sua grande utilização na área biomédica. Este estudo teve como objetivo a síntese de PLA através de policondensação direta e em meio supercrítico (scCO2) e sua caracterização. As duas rotas buscam um processo limpo de síntese dos polímeros, livre de solvente orgânico. Além disso, procurou-se reduzir os custos de obtenção utilizando matéria-prima nacional (ácido láctico P.A. comercial). As reações de polimerização de PLLA realizada por policondensação e em scCO2 foram feitas em dois estágios. No primeiro estágio da síntese, para ambos os processos, o pré-polímero do ácido láctico foi obtido através de uma reação simples de condensação, com retirada de água, sob atmosfera inerte de N2 e 160ºC. Na segunda etapa, para a reação de policondensação, o polímero PLLA, foi obtido a partir do pré-polímero em uma temperatura de 140ºC e sob pressão reduzida por o tempo desejado (100h, 200h e 350h). As reações em meio scCO2 foram realizadas em um reator de aço inoxidável de 100 mL equipado com uma barra de agitação magnética, sob pressão de CO2 (80atm) e a 90ºC por 4 horas. Em ambas as reações de polimerização foram usadas complexos de estanho como catalisador. No início deste trabalho foram realizadas algumas reações utilizando o D, L-ácido láctico em scCO2. Também foi realizada a síntese do lactide e a polimerização deste por abertura de anel. Para efeito comparativo, também foi realizada a polimerização do lactide comercial. Os polímeros obtidos foram caracterizados por espectroscopia de Ressonância Magnética Nuclear de Próton (1HRMN), por espectroscopia de infravermelho (IV), por cromatografia de permeação em gel (GPC), por calorimetria exploratória de varredura (DSC) e pela técnica de análise termogravimétrica (TGA) A reação de policondensação revelou ser uma rota sintética excelente na obtenção de polímeros de PLA com peso molecular variados. A formação dos polímeros a partir do monômero de ácido láctico foi confirmada pelo desaparecimento da banda de OH em 3500 cm-1 no espectro de infravermelho. O espectro de 1H-RMN de ambos os polímeros, mostrou um sinal atribuído ao hidrogênio do grupo CH3 em 1,52 ppm e um sinal atribuído aos hidrogênios do grupo do CH em 5,16 ppm, que estão de acordo com a literatura. Os polímeros obtidos possuem potencial para uso clínico como materiais de implante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A configuração de dispositivos é uma tarefa crítica de gerenciamento, pois envolve alterações no estado da rede, da qual, cada vez mais, se exige um funcionamento com garantias de qualidade de serviço (QoS) e com um menor número possível de falhas ou interrupções. Por esse motivo, evidencia-se a importância do uso de protocolos adequados à tarefa de configuração. A opção natural e mais aceita atualmente, o protocolo SNMP, apresenta lacunas e falhas que o tornaram insuficiente para atender esses requisitos de configuração. Dentre os protocolos de configuração disponíveis na atualidade, destaca-se o NETCONF. Por outro lado, SOAP também pode ser usado para configuração e vem ganhando importância com a atual popularização dos Web Services, os quais proporcionam interoperabilidade entre aplicações Web. Enquanto o NETCONF é um protocolo específico para configurações, o SOAP é um protocolo genérico para realizar chamadas remotas de procedimentos (RPC). Ambos podem ser encapsulados em protocolos diferentes, formando arquiteturas de redes distintas. É importante notar que, pelo fato da proposta do protocolo NETCONF ser recente, tem-se poucos (ou talvez nenhum) resultados a respeito do desempenho do NETCONF e seus possíveis encapsulamentos. Uma questão importante que normalmente também surge neste contexto é a da real necessidade de um novo protocolo de configuração como o NETCONF, mediante a existência de um protocolo de uso geral já amplamente aceito como é o caso do SOAP. Nessa dissertação é discutido o uso de NETCONF e SOAP para a configuração de dispositivos. Além disso, são apresentados protótipos que implementam tais protocolos. Para tal, são considerados quatro cenários de gerenciamento utilizando arquiteturas de protocolos distintas que permitiram a realização de avaliações de desempenho dos mesmos em relação ao tempo de resposta e consumo de banda. O resultado dessas avaliações aliado ao estudo realizado sobre as tecnologias envolvidas não ajudou a justificar a existência do NETCONF, apesar da ligeira vantagem do NETCONF sobre o SOAP na questão de tempo de resposta, que pode ser explicada pelas diferentes linguagens de programação empregadas nas implementações. Concluiu-se que o NETCONF pode ser assim eficientemente substituído pelo protocolo SOAP sem perda de funcionalidades e com ganho em relação ao consumo de banda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisamos aglomeradosimersosem nuvens moleculares, os quais são fundamentais para a compreensão dos estágios evolutivos iniciais da formação estelar. Na presente tese exploramos principalmente objetos associados a nebulosas de reflexão. Os objetos que estão no foco central do nosso estudo são possíveis aglomerados presentes na direção de nebulosas de reflexãoou emissão,já apontados pelos trabalhos de Bica et aI. (2003b) e Dutra et alo (2003). No estudo desses sistemas utilizamos principalmente dados do Catálogo 2MASS. A análise fotométrica é baseada em diagramas cor-magnitude e cor-cor, juntamente com isócronas teóricas de pré-seqüência-principaI. A distribuição angular de densidade superficial de estrelas no aglomerado e no campo próximo é um outro método de análise utilizado. Através da análise fotométrica e espectroscópica obtivemos os parâmetros físicos fundamentais dos aglomerados. Com base na emissão de estrelas na banda Ks realizamos uma busca por novos aglomerados imersos. A busca foi orientada na direção central de 47 nebulosas no ótico selecionadas a partir do Catálogo de Dutra et aI. (2003), varrendo um raio angular de r = 10' para cada direção. A busca resultou na descoberta de um aglomerado imerso ainda não catalogado, e aqueles já catalogados foram redescobertos. Neste trabalho obtivemos parâmetros físicos para mais de 30 aglomerados imersos. O raio linear derivado para esses objetos situa-se na faixa de 0,3 a 0,9 pc e o número de estrelas membros detectadas fica geralmente na faixa de 20 a 50 A idade média derivada para a amostra indica uma população bastante jovem. A maior parte dos aglomerados possui uma idade de 1 a 2 milhões de anos. Em nossa amostra o objeto mais massivo encontrado possui uma massa estimada de ~ 200M<=).Entretanto, a maioria dos aglomerados possui massa estimada na faixa de ~ 20M<=)a ~ 60M<=).Os valores de massa total para cada aglomerado não possuem uma correlação aparente com o ambiente da nebulosa. Os aglomerados imersos associados a nebulosas em ambientes de complexo HII podem apresentar massas tão baixas quanto aqueles associados a nebulosas de reflexão. Estes sistemas estelares provavelmente não apresentam estrelas com massas superiores àquela de uma estrela com tipo espectral B. Finalmente, estudamos um aglomerado imerso contendo uma estrela OV, o aglomerado NGC 2264. Obtivemos uma função de massa inicial (FMI) para o aglomerado NGC 2264 a partir de 346 fontes de raio-X detectadas pelo CHANDRA com contrapartida no infra-vermelho. A FMI derivada inclui massas estelares acima de M = O,03M<=). Em comparação com a FMI da vizinhança solar existe uma deficiência de estrelas de baixa massa para M < O,3M<=). As massas estimadas para os objetos analisados indicam que eles são sistemas estelares não-ligados gravitacionalmente. A maioria dos aglomerados de nossa amostra possui massa inferior a 100M<=)e está associada a nebulosas de reflexão. A formação de estrelas do tipo O em aglomerados imersos não-ligados gravitacionalmente não parece ser freqüente, segundo nossos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Glicoesfingolipídios (GSL) são constituintes da membrana plasmática e possuem bases de cadeia longa (bases esfingóides) como componente estrutural lipídico. Açúcares podem ser adicionados à ceramida sintetizada de novo (rota 1), sintetizada pela reciclagem da esfingosina (rota 2) e em GSL reciclados através do Golgi (rota 3). A serina palmitoiltransferase (SPT) é a enzima marca-passo e catalisa o primeiro passo na biossíntese de novo destes componentes. A linhagem celular GRX, representativa das células estreladas hepáticas, expressa o fenótipo miofibroblástico e pode ser induzida in vitro a adquirir o fenótipo lipocítico. Ambos fenótipos possuem gangliosídios da série-a (GM2, GM1 e GD1a) bem como o seu precursor GM3, que são expressos como doublets em HPTLC (bandas 1 e 2, respectivamente). Para o estudo da biossíntese dos GSL neste modelo biológico, foram determinadas as condições ideais para a atividade da SPT, e foi avaliada sua atividade na fração microssomal nos dois fenótipos. Também foi determinada a contribuição de cada rota de biossíntese para as duplas bandas. As células foram pré-incubadas com 5mM de -cloroalanina (inibidor da SPT) ou com 25M de fumonisina B1 (inibidor da ceramida sintase) e então, [U-14C]galactose foi adicionada no meio de cultura na presença contínua dos inibidores. Culturas controles (sem inibidores) foram realizadas simultaneamente. Os lipídios foram extraídos, os gangliosídios purificados em colunas Sep-Pack C18 e analisados por HPTLC, a qual foi revelada por auto-radiografia e após, submetida à análise densitométrica. Em ambos fenótipos, a síntese de novo, a reciclagem da esfingosina e a reciclagem pelo Golgi contribuem com a biossíntese dos GSL No miofibroblasto, os doublets dos gangliosídios complexos (GD1a e GM1) são, principalmente, sintetizados pelas rotas de reciclagem; enquanto as bandas do GM2 e do GM3 têm uma participação importante da síntese de novo. No lipócito, as rotas de reciclagem são as mais importantes. Contudo, no lipócito, ambas bandas do GM2 e a banda 2 do GM3 apresentam considerável síntese pela rota de novo. Esta rota tem uma contribuição menor no lipócito do que no miofibroblasto, o que está de acordo com os níveis da atividade da SPT detectados nestes fenótipos. Isto sugere que os fenótipos miofibroblasto e lipócito utilizam pools de ceramida distintos para a síntese de seus GSL e que apresentam importantes diferenças entre as rotas biossintéticas, o que pode se refletir no seu comportamento celular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visa desenvolver um sistema portátil de radiocomunicação de radiação restrita, indicado para biotelemetria digital de curta distância aplicada ao Teste da Caminhada de Seis Minutos (TC6M) em pacientes com doença pulmonar obstrutiva crônica ou hipertensão pulmonar. A saturação periférica da hemoglobina (SpO2) e a freqüência cardíaca (FC) são monitoradas em tempo real. É utilizada a banda destinada a aplicações médicas, industriais e científicas (ISM), com freqüência de portadora em 916MHz e potência de transmissão de 0,75mW. Este sistema foi projetado para operar através de um enlace half duplex e codificação Manchester NRZ incorporando um protocolo para correção de erros do tipo automatic repeat request error com utilização de um código CRC-16 para detecção de erros. A velocidade máxima de transmissão de dados é de 115.2 kbps. O sistema é constituído de três partes: unidade portátil (Master), unidade estacionária (Slave) e software de visualização em tempo real. A unidade portátil recebe do oxímetro os parâmetros de monitorização que são transmitidos via enlace de rádio-freqüência. A interface da unidade estacionária com o software é feita através da porta de comunicação serial padrão RS-232. Os testes de laboratório e de campo demonstraram que o sistema de biotelemetria é adequado a realizar o TC6M com precisão de SpO2 de ±3 dígitos (com ±1 desvio padrão) e FC de ±3% ambos com taxa de Frame Error Rate < 10-4 (0,01%), sem restrigir os movimentos do usuário durante o processo de monitorização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O telefone celular teve uma grande evolução nos últimos anos, o que antes era utilizado exclusivamente para transmissão de voz, hoje tem características avançadíssimas incluindo várias evoluções tecnológicas. Dentro deste aspecto, a inovação que o LTE (Long Term Evolution) vem demonstrando em suas características realmente se destacam em relação as tecnologias que a antecederam e representa grande evolução se comparada com as outras. Foi desenvolvida no âmbito do projeto 3GPP e (3rd Generation Partners Project) promovido pelo Instituto Europeu de Normalização na área de Telecomunicações ETSI (European Telecommunications Standard Institute). As operadoras que demonstram interesse em disponibilizar esta tecnologia buscam introduzir a flexibilidade do LTE para ir ao encontro dos objetivos de suas redes existentes, espectro e negócios para banda larga móvel e serviços multimídia. O LTE promete taxas de download de 326,4Mbps, taxas de upload de 86,4Mbps, RTT ( ROUND TRIP TIME ) menos de 10 mile segundos e raio das células podendo atingir até 100km. O sistema 4G (LTE) é um sistema integrado completamente baseado em IP, que é resultado de tecnologias conectadas por fios e sem fios disponibilizando um custo acessível, atendendo as exigências de uma rede de comunicação (Wireless), serviços de transferência de mensagens multimídias, conversa com vídeo, televisão móvel de alta definição, serviços mínimos como voz e dados entre outras vantagens. Desta forma, este estudo tem por objetivo analisar quais são as oportunidades e os desafios no mercado de telefonia móvel de Telecomunicações ao implantar o sistema de tecnologia LTE demonstrando o benefício dos fabricantes e operadoras no sentido econômico e tecnológico.