928 resultados para Telefonia móvel
Resumo:
Os comprimidos utilizados no tratamento da tuberculose possuem quatro fármacos associados, isoniazida, pirazinamida, etambutol e rifampicina, e são distribuídos gratuitamente pelo Sistema Único de Saúde. Os métodos analíticos oficiais para analisar este medicamento estão especificados na Farmacopeia Americana 36a edição e na Farmacopeia Internacional 4a edição. Porém, estes compêndios oficiais não possuem monografias para análise simultânea dos quatro fármacos. O objetivo deste estudo foi desenvolver uma metodologia para determinar simultaneamente os princípios ativos em comprimidos dose fixa combinada, utilizando-se cromatografia a líquido de alta eficiência com detector de ultravioleta-visível, pois é de grande importância para o controle da qualidade do medicamento. O método desenvolvido utilizou coluna cromatográfica C18 (250 x 4,6) mm e 5 μm, fase móvel constituída de fase aquosa (85 % tampão formiato de amônio 0,3 mol/L pH 5, 15 % metanol e 0,005 mol/L de Cu2+ ou 250 mg/L de CuSO4.5H2O) e fase orgânica (metanol, 0,1 % de trietilamina e 0,2 % de ácido fórmico). O fluxo foi de 1,0 mL/min e comprimento de ondade 265 nm para isoniazida, pirazinamida e o etambutol e de 335 nm para rifampicina. Este método apresentou desvio padrão relativo inferior a 2,0 % na precisão e linearidade para os quatro fármacos estudados.
Resumo:
A capacidade de inovação é essencial à sobrevivência de empresas criativas de software. Assim, a criação e disseminação do conhecimento encontram cada vez mais espaço no planejamento e na estratégia de gestão dessas organizações. Este estudo, de natureza exploratória, efetuou entrevistas semi-estruturadas com profissionais gestores e técnicos da indústria criativa de software, tendo por objetivo analisar as técnicas e métodos presentes no processo de geração e disseminação do conhecimento, bem como as ferramentas de tecnologia da informação voltadas a essa finalidade. Os principais resultados mostram que há uma preocupação constante nessas organizações com a geração do conhecimento. As técnicas e métodos mais largamente empregados na criação e disseminação de conhecimento foram: brainstorming, reuniões presenciais, reuniões virtuais, treinamentos oficiais presenciais, treinamentos informais, cursos em universidades, compartilhamento de experiências, discussões e aplicativo de gestão de projetos de desenvolvimento de software. Já em relação às ferramentas utilizadas, somam-se: internet, intranet, aplicativos específicos, redes internas, repositórios de dados, diretórios específicos no banco de dados e sistemas de telefonia baseados na internet.
Resumo:
Dissertação apresentada ao Programa de Pós Graduação em Administração da Universidade Municipal de São Caetano do Sul.
Resumo:
Neste trabalho são desenvolvidos métodos numéricos para inversão da transformada de Laplace, fazendo-se uso de polinômios trigonométricos e de Laguerre. Sua utilização é ilustrada num problema de fronteira móvel da área de engenharia nuclear, através do algoritmo computacional ALG-619. Uma revisão dos aspectos analíticos básicos da transformada de Laplace e sua utilização na resolução de equações diferenciais parciais é apresentada de maneira suscinta.
Resumo:
O objeto de estudo deste trabalho é o processo de integração docente assistencial entre a Escola de Enfermagem da Universidade Federal do Rio Grande do Sul e o Hospital de Clínicas de Porto Alegre, enfocando os atores envolvidos e a sua prática histórica concreta. Pretende-se conhecer a dinâmica das relações do referido processo, entendendo-o como um trabalho coletivo que resulta de transformações históricas e sociais. Trata-se de relações de trabalho construídas na especificidade dessa prática e de seus atores. Desse modo, o processo investigado é percebido como conflituoso, desarticulado de uma ação conjunta do ensino e serviço e vivido com dificuldades, divisões e disputas entre os enfermeiros-docentes e assistenciais devido a práticas, poderes, interesses e necessidades diferentes. A dicotomia inter-institucional transparece como regra dessa articulação, desencadeando uma problemática de integração, que se traduz em obstáculos para a operacionalização das relações de trabalho. A IDA existente não é harmônica mas as relações de força que a integram devem ser aproveitadas como móvel para sua ação e transformação, definindo expectativas reais de trabalho, considerando suas inter-relações e, a partir delas, a construção/reconstrução de novas alternativas.
Resumo:
A utilização de torres metálicas treliçadas vem, nos últimos anos, se intensificando em todo o Brasil. Este aumento é resultado do salto tecnológico pelo qual o país passou no início da década de 90, onde a necessidade de ampliação dos sistemas de telecomunicações, principalmente, da telefonia celular, se tornou imprescindível para o seu crescimento tecnológico. Em função disso, vários são os projetos de torres metálicas treliçadas que tem sido contratados pelas diversas empresas de telefonia celular, espalhadas por todo país. No Brasil, onde, pelas benesses da natureza, não há registros de terremotos significativos, e devido ao baixo peso deste tipo de estrutura, a força do vento é o carregamento determinante para a elaboração do projeto estrutural de torres metálicas treliçadas. Sendo assim, se faz necessário perguntar: será que estes projetos estão atendendo às recomendações da norma de vento (NBR 6123/88)? Quais são os riscos aos quais as populações estão sujeitas com a edificação de torres cada vez mais próximas de suas casas? Neste trabalho, tomando como exemplo o projeto de uma torre metálica treliçada que colapsou no ano de 2000 na cidade de Porto Alegre-RS, foram feitas investigações numéricas no sentido de avaliar a integridade estrutural daquela torre ante os carregamentos devidos aos ventos locais, onde se concluiu que a carga de vento implícita no dimensionamento foi bem abaixo daquela calculada pelos padrões da norma brasileira Uma investigação experimental em dois modelos seccionais, um em latão e outro em madeira, construídos a partir de dois trechos da torre estudada, foi realizada a fim de analisar parâmetros aerodinâmicos como coeficientes de arrasto, ângulo de incidência do vento sobre a torre, índice de área exposta e fator de proteção. Os modelos foram construídos na oficina Paulo Francisco Bueno - LAC/UFRGS e ensaiados no Túnel de Vento Prof. Joaquim Blessmann do Laboratório de Aerodinâmica das Construções da Universidade Federal do Rio Grande do Sul – LAC/UFRGS. Neste trabalho são apresentados os resultados destes experimentos, bem como uma comparação destes resultados com informações até então disponíveis na literatura técnica, além de uma contribuição técnica ao capítulo 9 da NBR 6123/88.
Resumo:
O uso estratégico de sistemas bifásicos para preservação das vantagens da catálise homogênea tem se mostrado uma alternativa tecnológica interessante, já que se aliam altas atividades e seletividades, com a possibilidade de recuperação/re-utilização do sistema catalítico. O sistema catalítico Rh(acac)(CO)2/Sulfoxantphos imobilizado no líquido iônico hidrofóbico 1-n-butil-3-metilimidazólio (BMI.PF6) promove a reação de hidroformilação de olefinas pesadas com seletividades em aldeídos superiores a 98%. A regiosseletividade deste sistema é fortemente dependente da natureza do líquido iônico e da fase móvel envolvidos na reação. Estudos sobre transferência de massa gás/líquido também foram realizados e demonstraram que CO é mais solúvel do que H2 no BMI.PF6, na ordem de duas vezes mais, nas condições reacionais utilizadas. A formação do complexo de catalítico em BMI.PF6 foi monitorada por infravermelho (HPIR) e ressonância magnética nuclear (HPNMR) in situ. As mesmas espécies catalíticas ee e ea-(difosfina)Rh(CO)2H observadas em solventes orgânicos foram formadas no BMI.PF6. O uso de HPIR sob condições de hidroformilação mostrou que o equilíbrio dinâmico ee:ea segue um comportamento semelhante ao observado em meio homogêneo onde solventes orgânicos clássicos, como o tolueno, são utilizados.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.
Resumo:
Os estudos sobre mobilidade intensificaram-se com o uso em grande escala da Internet, pois esta trouxe a possibilidade de explorar mobilidade através de redes heterogêneas, conectadas por diferentes links de comunicação e distantes umas das outras. A replicação de componentes em sistemas distribuídos normalmente é utilizada para torná-los mais confiáveis e seguros ou para aumentar o desempenho da aplicação, uma vez que acessos remotos podem ser evitados através da localidade da réplica. Em qualquer um dos casos, a replicação implica a manutenção na consistência entre as múltiplas cópias, isto é, é preciso garantir que as cópias estejam com seus estados consistentes em um determinado momento. Em sistemas que permitem mobilidade e replicação, a principal preocupação é com a consistência e o gerenciamento das réplicas do objeto móvel. Isto é, dependendo da técnica de replicação utilizada, como gerenciar um objeto e suas réplicas se estes podem mudar sua localização? Como garantir um bom desempenho do sistema? Estas perguntas esta proposta procura responder. Este trabalho apresenta um modelo de replicação em ambientes de objetos distribuídos que permitem mobilidade chamado ReMMoS - Replication Model in Mobility Systems. O objetivo deste modelo é prover um ambiente de execução para suporte ao desenvolvimento de aplicações envolvendo mobilidade explicita e replicação implicita. Assim, o programador não necessita preocupar-se com o gerenciamento e a consistencia das cópias.
Resumo:
Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.
Resumo:
Atualmente, o leilão de espectro tem sido evento de considerável relevância para o mercado de telecomunicações. As cifras alcançadas nos leilões, a oportunidade que eles representam para as empresas interessadas em explorar o mercado de telecomunicações, e o interesse do governo em alocar de forma eficiente este recurso, trouxeram notoriedade e magnitude para este mecanismo de seleção. Com o advento de novas tecnologias de comunicação móvel, detentoras de características inovadoras que permitem preencher cada vez mais a cesta de necessidades do consumidor, e a partir da alocação destas tecnologias a distintas faixas de espectro, tornou-se necessário, a determinação do mecanismo de escolha mais adequado daquele que será o gestor do recurso que permitirá a oferta desses serviços ao mercado: o espectro de freqüência. Com o intuito de se avaliar esse cenário, e os distintos papéis de seus participantes, busca-se nesse trabalho, através da análise do mais recente conjunto de leilões realizados para alocação deste recurso, o leilão das licenças 3G na Europa, compreender os pormenores envolvidos desde a elaboração até o desfecho deste processo. Objetiva-se, por fim, enriquecer o debate sobre esse tema ao discutir-se o cenário brasileiro. O trabalho ao analisar os leilões europeus nos permite identificar que as regras do leilão, como comentado por diversos autores, não são diretamente transplantáveis entre diferentes ambientes. Afinal dentro do ambiente homogêneo caracterizado pelo continente europeu, apesar da semelhança entre os diversos modelos de leilão utilizados, o sucesso obtido em países como Reino Unido e Alemanha, não foi repassado aos demais, ao compararmos o preço pago per capta. Entretanto, o espectro tem seu valor altamente conectado à disponibilidade tecnológica de sua utilização, logo, espectro sem tecnologia adequada para seu uso é observado como de valor privado aproximadamente zero pelos participantes. Esse fenômeno foi caracterizado pelo baixo valor atribuído ao espectro não pareado. Apesar de valor ser relativamente nulo, não é zero, pois a aquisição do direito de uso do espectro pode representar um "hedge" para ser utilizado, senão hoje, quando a tecnologia estiver disponível. Porém sendo o espectro recurso escasso, a alocação deste para tecnologia ainda indisponível pode ser considerado ineficiente. Observa-se, também, que o "incumbent" tende a valorizar mais uma licença, porém não se conseguiu determinar se isso ocorre devido a maior quantidade de informação que este detém sobre o mercado, ou devido à tentativa de manter o "status quo" do oligopólio atual. Baseado no comentado anteriormente e nos resultados dos leilões torna-se evidente que caso o entrante não seja protegido, como o "incumbent" valoriza mais a licença este sempre pagará mais por esta. E caso, o entrante tenha esta certeza, este não virá participar do leilão, o que na maior parte dos casos inviabilizaria o leilão pois haveriam tantas licenças quanto participantes. Ao analisar-se o caso brasileiro identifica-se a presença de um jogo nacional e um subjogo regional, onde os participantes podem ser simultaneamente "incumbents" para uma região, porém entrantes em outra.
Resumo:
Esta tese está composta por três artigos que discutem e avaliam o papel da competição em setores da economia brasileira. Os dois primeiros ensaios dizem respeito aos setores de telecomunicações e da gasolina, e o último estudo, aos setores da indústria de transformação. A contribuição maior deste trabalho, portanto, é empírica (microeconomia aplicada), cobrindo aspectos não antes questionados ou pouco explorados, não só para o caso brasileiro, mas, também, em nível internacional. A primeira pesquisa identifica como se dá a dinâmica competitiva fixo x celular em 2001. Como o resultado indica que há substituição entre ditas telefonias, o preço do celular pode ser ou vir a ser um inibidor para os preços da telefonia fixa. Estimou-se a demanda de cada uma das telefonias usando um modelo logit, utilizou-se microdados da PNAD (Pesquisa Nacional de Amostragem Domiciliar) e usou-se vários cortes amostrais. O segundo trabalho analisa a estrutura de mercado da gasolina antes e depois de 1997, quando houve a liberalização dos preços. O modelo foi estimado por equações simultâneas (estimador 3SLS), para 11 estados do Brasil entre os anos 1995 e 2001. O resultado sugere que antes e depois daquela data o modelo que mais se aproxima a diferença “preço - custo marginal” é o de concorrência perfeita. Por fim, o terceiro estudo conclui que a guerra de preços (quando as margens de lucro são menores) ocorre na indústria de transformação no Brasil em momentos em que a economia domestica está em recessão. Este resultado é reforçado para os setores mais fechados ao mercado externo e está compatível com a maioria dos resultados em nível internacional. Estimou-se a função lucro de 244 setores, de 1996 a 2000, com um modelo em painel dinâmico, usando o estimador de Arellano e Bond (1991).
Resumo:
Esta dissertação analisa um evento da história recente do país - o processo deprivatização do sistema TELEBRÁS - através do resgate da memória de alguns dosseus atores, os empregados das operadoras de telefonia. Para tanto, privilegiou-se oestudo de caso de uma empresa privatizada em julho de 1998 a Telecomunicaçõesdo Rio de Janeiro S.A. (TELERJ).O setor de telecomunicações é de grande relevância para o desenvolvimentoeconômico e social na era contemporânea e o presente trabalho acompanha a históriada empresa desde a sua formação em 1923, transformação em empresa estatal e suaprivatização. A partir do processo de preparação para venda, que foi operado desde aquebra do monopólio das telecomunicações em 1995, e, de forma mais radical, desdesua privatização, analisou-se o processo de
Resumo:
Há uma tendência de mercados mais concorridos, devido à globalização, menores taxas de crescimento econômico e outras causas. Diante desse cenário, o papel desempenhado pelos consumidores influenciando o comportamento das empresas pode elevar-se. Todavia, várias questões a esse respeito despontam no Brasil. O que significa ética empresarial para os consumidores? Quais são as empresas éticas e antiéticas para os consumidores? A ética empresarial é importante para os consumidores? A ética empresarial é recompensada pelos consumidores? Acerca desta última e crucial questão, tendo-se por base uma série de artigos jornalísticos, a resposta parece ser sim. Todavia, nenhum resultado empírico acadêmico produzido no Brasil foi encontrado contemplando por completo essas questões. Este relatório envolve uma pesquisa teórica-empírica sobre tais questões. No plano teórico, foram examinados dois temas: a) a crescente relevância da ética nos negócios; b) o marketing e o papel da ética do consumidor, no exterior e no Brasil. Na parte empírica, dois foram os propósitos. O primeiro envolveu uma sondagem qualitativa, sob a ótica do consumidor, das melhores e piores práticas empresariais em termos de ética, assim como das empresas mais éticas e mais antiéticas. O segundo abrangeu a mensuração dos construtos Importância Atribuída pelo Consumidor ao Comportamento Ético Empresarial e Propensão do Consumidor a Recompensar o Comportamento Ético Empresarial, bem como o teste da existência de uma relação entre eles. Dados foram obtidos de uma amostra de assinantes de telefonia fixa da cidade de Campo Grande, estado de Mato Grosso do Sul. Ao final, as principais limitações e conclusões da pesquisa foram expostas e discutidas.