1000 resultados para Destinação de computadores
Resumo:
A disseminação do formato mp3 como padrão para arquivos de música, aliada ao crescimento da Internet, fez surgir uma poderosa rede de distribuição de música online. A extrema disponibilidade, diversidade de escolha e facilidade de acesso para quem possui banda larga em seus computadores fez crescer o download de músicas pela Internet, revolucionando o mundo fonográfico. O objetivo geral deste estudo é identificar quais fatores, na perspectiva do consumidor, têm maior influência no download gratuito de música pela Internet através de uma pesquisa exploratória de duas fases. Na primeira fase, qualitativa, foram realizadas entrevistas não estruturadas com usuários e consumidores de redes peer-to-peer de download de música pela Internet e entrevista semi-estruturada com um ex-executivo da indústria fonográfica. Na fase seguinte, quantitativa, foram aplicados questionários estruturados a pessoas que efetuam download de música pela Internet. Adotou-se a regressão linear múltipla como modelo para interpretar os dados colhidos junto à amostra e testar as hipóteses relacionadas as variáveis: acessibilidade ao produto, percepção de injustiça no preço e faixa etária. Os resultados sugerem a não rejeição das três hipóteses estudadas.
Resumo:
Neste trabalho desenvolvemos um texto hipermídico sobre ótica para o ensino médio. Nele abordamos tópicos de ótica geométrica e ótica física, com o uso intensivo de tecnologias da informação, abrangendo a exploração de simuladores (Java Applets), de imagens e animações, acompanhadas de textos teóricos explicativos. Para o material, geramos 77 animações e 63 imagens, e adaptamos 13 simuladores Java Applets, organizados em material interativo desenvolvido em linguagem html e disponibilizado em CD-ROM. O embasamento teórico do trabalho é dado pelas teorias construtivistas cognitivistas, aproveitando as idéias de Piaget, Vygostky, Rogers, Ausubel e Novak. O Material foi aplicado em uma turma de 3a série do ensino médio no Centro de Ensino Médio – SETREM, localizada na região Noroeste do RS. Com este material conseguimos desenvolver os conteúdos de uma forma mais atrativa, com maior envolvimento dos alunos e maior motivação por parte dos mesmos, fazendo com que se sentissem participantes ativos na aquisição de informações e construção do conhecimento. Ao aplicarmos o material, observamos que as novas tecnologias usadas são boas ferramentas auxiliares no processo ensino/aprendizagem de ótica no ensino médio, que devem ser aliadas aos demais recursos didáticos existentes, não devendo ser encaradas como únicas e muito menos como substitutivas do professor, pois a este cabe cada vez mais o papel de orientador, motivador e organizador de um ambiente propício para o ensino/aprendizagem eficiente.
Resumo:
Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.
Resumo:
O crescimento constante na geração de resíduos sólidos em todo o mundo tem estimulado estudos para os mais variados tipos de resíduos. As sucatas eletrônicas fazem parte deste universo de materiais obsoletos e/ou defeituosos que necessitam ser dispostos de maneira mais adequada ou então reciclados. Neste trabalho foram estudadas as Placas de Circuito Impresso que fazem parte das sucatas eletrônicas e que são encontradas em quase todos os equipamentos eletro-eletrônicos (computadores, televisores, VCR´s, DVD´s, telefones celulares, impressoras, etc.). Para realizar esse estudo foram coletadas placas de circuito impresso (PCI) obsoletas ou defeituosas de computadores pessoais que são atualmente a maior fonte deste tipo de resíduo. As PCI são compostas de uma maneira geral de polímeros, cerâmicos e metais, o que dificulta o seu processamento. Por outro lado a presença de metais base (como cobre) e metais preciosos estimulam estudos quanto a sua reciclagem. Também a presença de metais pesados como Pb e Cd, que tornam as placas resíduos perigosos, demonstram a necessidade de pesquisar soluções para este tipo de resíduo, a fim de que possam ser dispostos adequadamente, sem prejudicar o meio ambiente. Na primeira etapa deste trabalho foi utilizado processamento mecânico, como moagem, separação granulométrica, separação magnética e separação eletrostática para obter uma fração concentrada em metais (principalmente Cu, Pb e Sn) e uma outra fração contendo polímeros e cerâmicos. Ao final deste processo foi possível obter nas frações concentradas em metais uma concentração média de cobre de 50%. Na segunda etapa a fração concentrada em metais foi dissolvida com ácidos e enviada para uma eletro-obtenção a fim de recuperar os metais separadamente, neste primeiro momento o cobre. Por eletro-obtenção foram obtidos cátodos com teores de cobre acima de 96% Os resultados obtidos demonstram a viabilidade técnica de se recuperar o cobre utilizando processamento mecânico seguido de uma técnica eletrometalúrgica.
Resumo:
Nos últimos 20 anos, o mundo testemunhou uma das maiores revoluções tecnológicas por que já passou. O surgimento da internet comercial modificou a maneira como o ser humano se relaciona, como produz informação e como acessa o conhecimento. O impacto direto dessa nova era se faz sentir em todos os campos da ciência e das artes, repercutindo de modo irreversível na área cultural. Se é certo que os direitos autorais diziam respeito a um grupo restrito de pessoas até o final do século XX (apenas àqueles que viviam da produção de obras culturais), hoje diz respeito a todos. Com o acesso à rede mundial de computadores, a elaboração e a divulgação de obras culturais (mesmo as mais sofisticadas, como as audiovisuais) se tornaram eventos cotidianos, que desafiam o modo como os direitos autorais foram estruturados, ao longo dos últimos dois séculos. Em consonância com a tendência mundial, o Ministério da Cultura brasileiro tem se dedicado a debater publicamente o assunto, a fim de também propor alterações na atual lei de direitos autorais do Brasil, a fim de ajustá-la às demandas contemporâneas. A intenção desta obra é analisar de maneira abrangente tanto a LDA quanto ambas as propostas de revisão da lei, no que diz respeito aos principais temas nelas abordados.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
Atualmente, quando falamos em Internet, não podemos somente pensar em serviços que utilizam correio eletrônico ou acessam informações de sites através de um navegador. Dentre alguns serviços utilizados na Internet, podemos destacar a videoconferência. Videoconferência contempla, além do intercâmbio de áudio e vídeo entre duas pessoas ou grupos, também o compartilhamento de dados. Os serviços e protocolos definidos nas recomendações H.323 (para videoconferência) e T.120 (para a colaboração de dados) do ITU são bastante complexos e ocorrem muitos problemas na sua utilização em redes de pacotes funcionando segundo o princípio de best effort da Internet. Nesta dissertação de mestrado são apresentados alguns resultados do estudo realizado sobre o contexto de videoconferência, suas soluções e protocolos, com ênfase nos protocolos padronizados para colaboração de dados dentro de uma videoconferência e a sua estrutura. Esta dissertação também apresenta uma proposta de solução para uma aplicação que utilize transferência de arquivos nos moldes do padrão ITU T.127, mas que atenda aos requisitos de menor complexidade (tráfego e processamento). A proposta utiliza as estratégias de simplificação dos protocolos usados no contexto de colaboração de dados em ambiente que ainda mantenha compatibilidade com o ambiente T.120 e, sobretudo utilizando a Internet.
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.
Resumo:
O surgimento do computador provocou uma série de mudanças sócio-culturais. A educação não poderia ficar imune a essas alterações. Várias experiências do seu uso em educação surgiram, inicialmente em computadores de grande porte; posteriormente, com o surgimento dos microcomputadores, essas experiências se multiplicaram. Como esse equipamento vem sendo utilizado, avaliações já realizadas, alguns problemas existentes e perspectivas futuras são discutidas neste trabalho; que procura apresentar o Projeto Ciranda, implantado pela Embratel. Tendo como pano de fundo uma perspectiva educacional, discute a filosofia do projeto, seus objetivos e a população participante.
Resumo:
O objetivo deste estudo foi verificar se as habilitações profissionais, implantadas pela SE nas escolas do Estado de S. Paulo, sob os auspícios da Lei 5692/71, haviam, realmente, preparado os jovens que as concluíram para o exercLcio de uma profissão e averiguar quantos alunos egressos da primeira turma do 2º grau profissionalizante conseguiram ser aproveitados de acordo com a qualificação auferida por eles. O estudo limitou-se às escolas da DE de são José do Rio Preto. O instrumental usado foi a entrevista, por não se saber quais os rumos tomados por esses estudantes, nem porque. Foram entrevistados alunos e autoridades do ensino. Aos primeiros aplicou-se a entrevista estruturada e aos segundos a entrevista semiestruturada. Dentre as autoridades foram entrevistados Diretores de Escola, Supervisores Pedagógicos e Assistentes Técnicos da DRE. Concluiu-se que o intuito maior dos entrevistados era o prosseguimento dos estudos em nível de 3º grau, intuito este já alcançado por um número expressivo desses egressos: 64,66% de S. Jose do Rio Preto e 31,85% das cidades vizinhas. Contudo, nem todos lograram ingressar nos cursos que queriam, nem tampouco em cursos relacionados com o 2º grau concluído: apenas 28,69% o conseguiram. A propósito da destinação para o trabalho, pode-se perceber uma dispersão 5,74% trabalham na profissão muito grande desses jovens: para a qual foram preparados, 59,77% estão foram do ramo e 34,48% ainda não trabalham. Foram 19 os cursos profissionalizantes instalados e conseguiu-se catalogar 58 diferentes serviços executados pelos egressos desses cursos, desde os mais simples como empregada doméstica e servente de pedreiro até ao presidente de indústria o que leva a crer que tais cursos, realmente não profissionalizaram e que o intento da Lei 5692/71 não foi atingido.
Resumo:
Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.
Resumo:
Por mais que a informatização esteja avançada (interligação por melO da rede internet de computadores entre os órgãos e entidades públicas pelo Estado), máquina alguma substituirá os dramas do homem contemporâneo, principalmente aqueles que sempre estiveram alijados da cidadania. Os problemas do homem, principalmente os hiposuficientes, dentro do caso concreto, nem sempre podem ser solucionados por máquinas distantes uma da outra e, o pior, em locais distantes, sem permitir o acesso direto ao ser humano que comanda a máquina. Esse cidadão, que tem no princípio da dignidade da pessoa humana sua maior proteção e garantia outorgada pelo Estado de Direito, tem o direito de ser tratado com dignidade pelo Estado que monopoliza a pacificação social através da jurisdição, principalmente quando o réu é o próprio Estado, como é o caso do subsistema dos Juizados Especiais Federais (os réus são a União, ou suas entidades autárquicas, ou empresas públicas federais). A humanização no atendimento do cidadão, que busca e deposita no Estado Judiciário (Federal), no subsistema do Juizado Especial Federal, sua última esperança na resposta de seus direitos violados pelo próprio Estado Administração (Federal), se materializará por uma nova proposta de prestação de serviço público - a unitariedade (concentração de todos os partícipes desse subsistema em um único local - Judiciário e Executivo juntos) - de forma permanente e estática, nas cidades de maior demanda social, pela gestão associada de prestação de serviço público jurisdicional entre o Judiciário e Executivo (Legislativo eventualmente) onde a entrega do bem da vida litigioso ou a pacificação (meios alternativos de solução do conflito, como a conciliação) se dê dentro de um ambiente de respeito ao ser humano, ou seja, dentro de um prazo razoável, com padrões de atendimento de eficiência compatíveis com a contemporaneidade e principalmente de forma efetiva (com efetividade plena). Os Juizados Especiais, que foram criados para serem rápidos, ágeis e efetivos, não podem se banalizar e terem os mesmos estigmas da morosidade, da não efetividade e do desapego a qualidade no atendimento ao usuário. Tal humanização, como proposta na dissertação, desse subsistema judiciário - Juizado Especial Federal - com a unitariedade desse serviço público, atende e concretiza os valores e princípios constitucionais, sem necessidade de mudança legislativa, além de reforçar a legitimidade do Estado e solidificar a cidadania. O que se quer nessa dissertação é retirar o Judiciário do isolamento, o que é fundamental sobretudo no plano da efetividade (execução de suas decisões e prevenção e postergação de litígios criando uma mecanismos de conciliação prévia permanente). A dissertação propõe um novo desenho institucional entre Poderes da República para prestação de serviço público jurisdicional buscando contribuir para o aperfeiçoamento das atividades judiciárias em sentido amplo, ou seja, atividades administrativas ou não jurisdicionais (função atípica do Poder Judiciário). O paradigma proposto, além da valorização do consensualismo, implica a efetividade das normas jurídicas e a eficiência do sistema.
Resumo:
Este trabalho apresenta uma proposta metodológica para o ensino de Ciência da Computação para Crianças, elaborada, a partir de pesquisas e estudos, tendo, como objetivo, a aplicação dessa metodologia para correção e testes. Devido à disseminação dos computadores e de seu uso como parte da formação dos alunos, muito se tem discutido sobre a união entre os recursos tecnológicos e a educação. A inclusão da informática no processo educativo vem sendo direcionada para a utilização e classificação de produtos de software educacional, em técnicas de comunicação à distância, no uso de recursos de multimídia ou de realidade virtual para apoio ao conteúdo abordado pelo professor e, também, para a construção de ambientes computacionais, que possam proporcionar uma mudança de paradigma educacional. No entanto não adianta tornar disponível toda essa tecnologia, se, rapidamente, são abandonadas e são substituídas ferramentas e técnicas dentro da Computação. Por isto, tão importante quanto o ensino das tecnologias correntes é o ensino dos conceitos fundamentais da Ciência da Computação. Esses conceitos, além de proporcionarem um embasamento teórico para entendimento da ciência envolvida na computação, também propiciam o desenvolvimento de um raciocínio lógico e formal, assim como de habilidades que são exigidas no mundo atual. Este trabalho apresenta pesquisas de campo sobre o uso da Informática Educativa em algumas escolas, a identificação, através de professores da graduação e pós-graduação, de alguns dos conceitos fundamentais da Ciência da Computação e uma pesquisa sobre o que crianças gostariam de aprender sobre Ciência da Computação. A partir dos resultados, são elaboradas teorias, demonstrações e exercícios para o ensino destes para crianças. Essa metodologia é aplicada a duas turmas heterogêneas de crianças para sua validação. Pretende-se que o estudo desses conceitos aguce o senso crítico e capacite as crianças não só a usarem as tecnologias mas também a entenderem seu funcionamento.
Resumo:
Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.
Resumo:
Internet Telephony (VoIP) is changing the telecommunication industry. Oftentimes free, VoIP is becoming more and more popular amongst users. Large software companies have entered the market and heavily invest into it. In 2011, for instance, Microsoft bought Skype for 8.5bn USD. This trend increasingly impacts the incumbent telecommunication operators. They see their main source of revenue – classic telephony – under siege and disappear. The thesis at hand develops a most-likely scenario in order to determine how VoIP is evolving further and it predicts, based on a ten-year forecast, the impact it will have on the players in the telecommunication industry.The paper presents a model combining Rogers’ diffusion and Christensen’s innovation research. The model has the goal of explaining the past evolution of VoIP and to isolate the factors that determine the further diffusion of the innovation. Interviews with industry experts serve to assess how the identified factors are evolving.Two propositions are offered. First, VoIP operators are becoming more important in international, corporate, and mobile telephony. End-to-end VoIP (IP2IP) will exhibit strong growth rates and increasingly cannibalize the telephony revenues of the classic operators. Second, fix-net telephony in SMEs and at home will continue to be dominated by the incumbents. Yet, as prices for telephony fall towards zero also they will implement IP2IP in order to save costs. By 2022, up to 90% of the calls will be IP2IP. The author recommends the incumbents and VoIP operators to proactively face the change, to rethink their business strategies, and to even be open for cooperation.