1000 resultados para Multiprogramação (Computadores)
Resumo:
Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.
Resumo:
Baseado no referencial teórico existente se pode constatar que as principais funções da TI que são comumente terceirizadas são: as operações de infraestrutura; o desenvolvimento e a manutenção de aplicações (fábrica de software); e o gerenciamento de redes e computadores (service desk). Dentre as funções comumente terceirizadas, uma que parece ter menor potencial de contribuição diferencial quanto ao seu valor para o negócio é a de infraestrutura, uma atividade bastante estruturada que normalmente é uma das primeiras a serem terceirizadas, parecendo ser corriqueiro que empresas optem por essa terceirização. Este trabalho teve como principal objetivo identificar a associação que pode existir entre o anúncio de terceirização da TI, especialmente infraestrutura, e o valor de mercado das empresas, e para tanto teve como foco empresas brasileiras de capital aberto. Já é sabido que investidores levam em consideração tanto as informações financeiras como não financeiras das empresas que pretendem investir, o que resulta em menor ou maior valorização dessas empresas. O valor da ação no mercado representa o retorno superior esperado em certos momentos, como reflexo da expectativa futura de desempenho que a empresa possa ter. Neste estudo queremos verificar se o anúncio da terceirização da TI levando a essa expectativa de desempenho superior, ou geração de valor futuro, leva também a alguma alteração no valor da ação no mercado. Isto foi feito por meio da comparação da variação do valor de mercado de algumas empresas antes e após o anúncio da realização da terceirização da TI. A metodologia utilizada foi o Estudo de Eventos e, para mensuração dos retornos normais e anormais, utilizamos um modelo de retornos ajustados ao risco e ao mercado, adotando o Capital Asset Pricing Model (CAPM) como modelo econômico para precificação de ativos. O tratamento dos dados das 11 empresas que compuseram a nossa amostra apontou que o anúncio da terceirização da TI parece ter afetado o comportamento das ações dessas empresas. Tomando por base a amostra escolhida, pudemos identificar que houve um impacto positivo no valor de mercado das empresas estudadas, o que pode ter ocorrido em função dos anúncios publicados.
Resumo:
Após o surgimento e a expansão exponencial, a internet evoluiu para uma tecnologia que extrapolou os contornos acadêmicos em que foi criada, desenvolvendo diversas e simultâneas vocações, entre elas, fonte de educação e lazer, armazenamento de informações, rede de computadores, meio de comunicação individual e veículo de mídia de massa. É esta vocação, de veículo de mídia, que provocou o interesse pela pesquisa objeto desta dissertação. A entrada da internet no ambiente de mídia tem renovado o interesse na questão do consumo de mídia. Particularmente, a crescente popularidade como novo meio de comunicação resultou em mudanças nos usos dos meios tradicionais, como teorizado na Teoria do Nicho aplicada à indústria de mídia. O declínio da audiência das grandes redes de TV aberta mostra como o setor vem reagindo à concorrência de novos canais, à emergência de novas plataformas de acesso à programação televisiva e à mudança nos hábitos de consumo de mídia. Esta investigação faz uma revisão da literatura e compara o panorama internacional e especialmente a situação do Brasil, onde as principais emissoras de sinal aberto tentam resistir ao processo de fragmentação do público que se registra mundialmente. Para melhor compreender o que significam tais mudanças, é primordial entender quais as variáveis relevantes no universo dos veículos de mídia. A principal delas é a audiência, que representa o número de pessoas que acessam, veem, leem, ouvem ou consomem determinado meio de comunicação em determinado espaço de tempo. O objetivo deste estudo foi desenvolver um modelo preditivo sobre o tempo despendido pelas pessoas na internet, a partir de informações sociodemográficas e do comportamento dessas pessoas enquanto audiência dos meios de comunicação tradicionais, particularmente a televisão. Como os dados secundários analisados apresentam respostas em categorias ordinais, foi escolhido a regressão logística ordinal como o modelo de probabilidades para realizar esse estudo.
Resumo:
Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.
Resumo:
A responsabilização do gestor municipal de saúde pelo planejamento e avaliação do Sistema de Saúde tem aumentado com o processo de municipalização, tornando crescente a necessidade de obtenção de informações adequadas e rapidamente acessíveis ao processo de tomada de decisões gerenciais. Os Sistemas de Informação em Saúde (SIS) são potenciais apoiadores deste processo, mas poucos trabalhos têm verificado sua adequação às necessidades dos gestores municipais, e municípios pequenos podem ter dificuldades adicionais para disponibilizar recursos materiais e humanos necessários a seu aproveitamento adequado. Procurou-se conhecer as necessidades dos 337 municípios gaúchos com menos de 10 mil habitantes em termos de estrutura, utilização dos SIS e necessidades de informações, através de questionário auto-aplicado. Houve um retorno de 127 questionários (37%). A falta de estrutura para a utilização dos SIS não apareceu como problema crítico, sendo que todos os municípios possuíam computador para uso dos SIS (média de três) e 6% não tinham internet. Em 59,1% há análise de dados com geração de indicadores utilizados no planejamento e gerenciamento local, mas 36,2% têm dificuldades na utilização das informações que retornam do nível central por não terem acesso ou por não conseguirem compreendê-las. 4,7% acham que os SIS permitem gerar os indicadores necessários, satisfazendo plenamente suas expectativas, e dos que não utilizam ou utilizam muito pouco os dados dos SIS, 10% referem como causa a falta de computadores, 27,5% o treinamento insuficiente dos profissionais, 27,5% que não há necessidade de criar indicadores, que vêm prontos do nível central, e 25% que os SIS não permitem trabalhar o banco de dados, apenas sua alimentação. Identificou-se dificuldade na compreensão do termo indicadora, e foram citados freqüentemente como importantes para o planejamento local os mesmos utilizados nas pactuações com o Estado. O Estado precisa fornecer às coordenadorias regionais condições para que possam assumir seu papel de apoiadoras técnicas, auxiliando a organização administrativa dos municípios e o processo de planejamento e tomada de decisões, permitindo que eles identifiquem suas demandas e decidam localmente quais as informações relevantes para apoiar suas decisões.
Resumo:
A disseminação do formato mp3 como padrão para arquivos de música, aliada ao crescimento da Internet, fez surgir uma poderosa rede de distribuição de música online. A extrema disponibilidade, diversidade de escolha e facilidade de acesso para quem possui banda larga em seus computadores fez crescer o download de músicas pela Internet, revolucionando o mundo fonográfico. O objetivo geral deste estudo é identificar quais fatores, na perspectiva do consumidor, têm maior influência no download gratuito de música pela Internet através de uma pesquisa exploratória de duas fases. Na primeira fase, qualitativa, foram realizadas entrevistas não estruturadas com usuários e consumidores de redes peer-to-peer de download de música pela Internet e entrevista semi-estruturada com um ex-executivo da indústria fonográfica. Na fase seguinte, quantitativa, foram aplicados questionários estruturados a pessoas que efetuam download de música pela Internet. Adotou-se a regressão linear múltipla como modelo para interpretar os dados colhidos junto à amostra e testar as hipóteses relacionadas as variáveis: acessibilidade ao produto, percepção de injustiça no preço e faixa etária. Os resultados sugerem a não rejeição das três hipóteses estudadas.
Resumo:
Neste trabalho desenvolvemos um texto hipermídico sobre ótica para o ensino médio. Nele abordamos tópicos de ótica geométrica e ótica física, com o uso intensivo de tecnologias da informação, abrangendo a exploração de simuladores (Java Applets), de imagens e animações, acompanhadas de textos teóricos explicativos. Para o material, geramos 77 animações e 63 imagens, e adaptamos 13 simuladores Java Applets, organizados em material interativo desenvolvido em linguagem html e disponibilizado em CD-ROM. O embasamento teórico do trabalho é dado pelas teorias construtivistas cognitivistas, aproveitando as idéias de Piaget, Vygostky, Rogers, Ausubel e Novak. O Material foi aplicado em uma turma de 3a série do ensino médio no Centro de Ensino Médio – SETREM, localizada na região Noroeste do RS. Com este material conseguimos desenvolver os conteúdos de uma forma mais atrativa, com maior envolvimento dos alunos e maior motivação por parte dos mesmos, fazendo com que se sentissem participantes ativos na aquisição de informações e construção do conhecimento. Ao aplicarmos o material, observamos que as novas tecnologias usadas são boas ferramentas auxiliares no processo ensino/aprendizagem de ótica no ensino médio, que devem ser aliadas aos demais recursos didáticos existentes, não devendo ser encaradas como únicas e muito menos como substitutivas do professor, pois a este cabe cada vez mais o papel de orientador, motivador e organizador de um ambiente propício para o ensino/aprendizagem eficiente.
Resumo:
Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.
Resumo:
O crescimento constante na geração de resíduos sólidos em todo o mundo tem estimulado estudos para os mais variados tipos de resíduos. As sucatas eletrônicas fazem parte deste universo de materiais obsoletos e/ou defeituosos que necessitam ser dispostos de maneira mais adequada ou então reciclados. Neste trabalho foram estudadas as Placas de Circuito Impresso que fazem parte das sucatas eletrônicas e que são encontradas em quase todos os equipamentos eletro-eletrônicos (computadores, televisores, VCR´s, DVD´s, telefones celulares, impressoras, etc.). Para realizar esse estudo foram coletadas placas de circuito impresso (PCI) obsoletas ou defeituosas de computadores pessoais que são atualmente a maior fonte deste tipo de resíduo. As PCI são compostas de uma maneira geral de polímeros, cerâmicos e metais, o que dificulta o seu processamento. Por outro lado a presença de metais base (como cobre) e metais preciosos estimulam estudos quanto a sua reciclagem. Também a presença de metais pesados como Pb e Cd, que tornam as placas resíduos perigosos, demonstram a necessidade de pesquisar soluções para este tipo de resíduo, a fim de que possam ser dispostos adequadamente, sem prejudicar o meio ambiente. Na primeira etapa deste trabalho foi utilizado processamento mecânico, como moagem, separação granulométrica, separação magnética e separação eletrostática para obter uma fração concentrada em metais (principalmente Cu, Pb e Sn) e uma outra fração contendo polímeros e cerâmicos. Ao final deste processo foi possível obter nas frações concentradas em metais uma concentração média de cobre de 50%. Na segunda etapa a fração concentrada em metais foi dissolvida com ácidos e enviada para uma eletro-obtenção a fim de recuperar os metais separadamente, neste primeiro momento o cobre. Por eletro-obtenção foram obtidos cátodos com teores de cobre acima de 96% Os resultados obtidos demonstram a viabilidade técnica de se recuperar o cobre utilizando processamento mecânico seguido de uma técnica eletrometalúrgica.
Resumo:
Nos últimos 20 anos, o mundo testemunhou uma das maiores revoluções tecnológicas por que já passou. O surgimento da internet comercial modificou a maneira como o ser humano se relaciona, como produz informação e como acessa o conhecimento. O impacto direto dessa nova era se faz sentir em todos os campos da ciência e das artes, repercutindo de modo irreversível na área cultural. Se é certo que os direitos autorais diziam respeito a um grupo restrito de pessoas até o final do século XX (apenas àqueles que viviam da produção de obras culturais), hoje diz respeito a todos. Com o acesso à rede mundial de computadores, a elaboração e a divulgação de obras culturais (mesmo as mais sofisticadas, como as audiovisuais) se tornaram eventos cotidianos, que desafiam o modo como os direitos autorais foram estruturados, ao longo dos últimos dois séculos. Em consonância com a tendência mundial, o Ministério da Cultura brasileiro tem se dedicado a debater publicamente o assunto, a fim de também propor alterações na atual lei de direitos autorais do Brasil, a fim de ajustá-la às demandas contemporâneas. A intenção desta obra é analisar de maneira abrangente tanto a LDA quanto ambas as propostas de revisão da lei, no que diz respeito aos principais temas nelas abordados.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
Atualmente, quando falamos em Internet, não podemos somente pensar em serviços que utilizam correio eletrônico ou acessam informações de sites através de um navegador. Dentre alguns serviços utilizados na Internet, podemos destacar a videoconferência. Videoconferência contempla, além do intercâmbio de áudio e vídeo entre duas pessoas ou grupos, também o compartilhamento de dados. Os serviços e protocolos definidos nas recomendações H.323 (para videoconferência) e T.120 (para a colaboração de dados) do ITU são bastante complexos e ocorrem muitos problemas na sua utilização em redes de pacotes funcionando segundo o princípio de best effort da Internet. Nesta dissertação de mestrado são apresentados alguns resultados do estudo realizado sobre o contexto de videoconferência, suas soluções e protocolos, com ênfase nos protocolos padronizados para colaboração de dados dentro de uma videoconferência e a sua estrutura. Esta dissertação também apresenta uma proposta de solução para uma aplicação que utilize transferência de arquivos nos moldes do padrão ITU T.127, mas que atenda aos requisitos de menor complexidade (tráfego e processamento). A proposta utiliza as estratégias de simplificação dos protocolos usados no contexto de colaboração de dados em ambiente que ainda mantenha compatibilidade com o ambiente T.120 e, sobretudo utilizando a Internet.
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.
Resumo:
O surgimento do computador provocou uma série de mudanças sócio-culturais. A educação não poderia ficar imune a essas alterações. Várias experiências do seu uso em educação surgiram, inicialmente em computadores de grande porte; posteriormente, com o surgimento dos microcomputadores, essas experiências se multiplicaram. Como esse equipamento vem sendo utilizado, avaliações já realizadas, alguns problemas existentes e perspectivas futuras são discutidas neste trabalho; que procura apresentar o Projeto Ciranda, implantado pela Embratel. Tendo como pano de fundo uma perspectiva educacional, discute a filosofia do projeto, seus objetivos e a população participante.
Resumo:
Durante a evolução da comunicação, diversos fatores contribuíram para melhorar a qualidade dos sistemas computacionais (Hardware e Software) em um ambiente industrial, onde o fator desempenho é um dos pontos importantes a ser considerado em um projeto de automação industrial. Nos últimos vinte anos, surgiram diversas propostas de padronização de protocolos para automação industrial e aplicações de tempo real, cada qual com características e tempos de resposta diferentes. Um estudo detalhado sobre as características técnicas de controle de tempo é de extrema importância, visto que esses sistemas, muitas vezes são implementados em situações de missão crítica, nas quais o tempo de resposta é um fator crucial para a aplicação. Nesta dissertação, apresentamos as etapas de evolução das técnicas de controle de acesso ao barramento, culminando inicialmente com o surgimento da proposta do protocolo FIELDBUS e em seguida com a proposta alemã, o PROFIBUS. O principal objetivo deste trabalho é propor um modelo analítico para a realização de avaliação de desempenho em uma rede PROFIBUS. O trabalho apresenta uma descrição das características funcionais do protocolo, bem como uma descrição detalhada dos tempos de controle utilizado pelo protocolo para controle e supervisão da rede. Uma descrição dos experimentos e o cruzamento dos dados obtidos na simulação com os dados obtidos através do modelo analítico demonstram a razão pela qual os modelos analíticos é uma ferramenta de extrema importância devido a sua agilidade em estimar o desempenho de uma rede PROFIBUS. Palavras-chave: Avaliação de desempenho, automação industrial, redes de campo, protocolos.