997 resultados para Comunicação Mediada por Computador
Resumo:
O trabalho relata o papel do orçamento como documento mediador entre empresa e cliente e ainda, como fonte de informações durante a obra, destacando as principais dificuldades na tarefa de orçar.
Resumo:
Este estudo de caso exploratório propõe um esquema explicativo sistêmico para entendimento da relação da organização com seu ambiente. Nesta visão sistêmica, apresenta o produto como uma resposta da empresa aos estímulos recebidos do meio ambiente. Com essa perspectiva, ressalta a importância da troca e do processamento de informações entre a engenharia e a área comercial como pré-requisito para o desenvolvimento de novos produtos. O caso relatado, uma indústria do setor eletroeletrônico, permite uma melhor compreensão dos fatores que influenciam a comunicação entre os departamentos com funções de comercialização e desenvolvimento de produtos.
Resumo:
O presente trabalho aborda a articulação entre comunicação e estratégias nas organizações, através de um estudo de caso da Gerasul/Tractebel Energia, empresa que atua no setor elétrico brasileiro. Orientado segundo uma abordagem qualitativa, este trabalho utiliza o referencial teórico sobre comunicação organizacional (KATZ e KAHN, 1978 e GOLDHABER, 1991) e sobre estratégias, enfocando principalmente as contribuições da Escola do Posicionamento e da Escola do Aprendizado, de acordo com a categorização de escolas de estratégias proposta por Mintzberg et al. (2000). A análise da empresa estudada revelou que a articulação eficiente entre comunicação e estratégias constitui um importante meio para se atingir os resultados pretendidos pela empresa. Isso porque a comunicação, além do papel de dinamizar o fluxo de informações, exerce a função de integrar os membros da empresa, bem como de promover as mudanças culturais desejadas e de construir uma imagem organizacional (NEVES, 2000) adequada aos negócios da companhia. O estudo revelou, também, que apesar de a articulação entre comunicação e estratégias ser percebida como fundamental pelos pesquisados, ela precisa ser incrementada na prática, a fim de potencializar os resultados da organização.
Resumo:
Esta dissertação aborda implicações das alternativas de comunicação oferecidas pela Internet na sociabilidade contemporânea. Para este estudo, foi desenvolvida pesquisa junto a usuários da Rede. A pesquisa Rotinas Digitais de Comunicação Pessoal buscou identificar alterações nas formas de comunicação interpessoal e mudanças nas rotinas comunicacionais do sujeito propiciadas por estas novas formas de comunicação, além de verificar implicações destas mudanças nas relações interpessoais. O suporte teórico da dissertação abordou aspectos referentes a tecnologia, informação, comunicação e sociabilidade, buscando subsídios teórico-metodológicos para a compreensão de características da sociabilidade contemporânea importantes para o alcance dos objetivos estabelecidos. Os resultados da investigação indicam que as novas alternativas para comunicação disponibilizadas pela Internet estão alterando as práticas comunicacionais dos indivíduos, incluindo no seu cotidiano rotinas digitais para o acesso à informação e aos meios de comunicação, para trabalho e para relacionamento social.
Resumo:
Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.
Resumo:
Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.
Resumo:
Este estudo foi realizado com o objetivo de conhecer e analisar como o Núcleo de Tecnologia Educacional de Terra Nova do Norte está capacitando os professores da rede pública de ensino em Informática da Educação; como essa capacitação é construída nos Laboratórios de Informática nas escolas; e como os professores estão fazendo uso do computador como ferramenta pedagógica. Pretendemos determinar quais são as dificuldades encontradas nesse tipo de capacitação, estabelecendo quais as reais perspectivas dos educadores e dos alunos do ensino fundamental; à luz dos resultados, elaboraremos um conjunto de sugestões com o intuito de melhorar o nível de qualidade de atuação dos envolvidos com tecnologia da informação e da comunicação. Além disso visitamos os núcleos de: Cuiabá, Cáceres, Diamantino, Nova Xavantina, Sinop e Terra Nova do Norte; os Laboratórios de Informática nos municípios de: Terra Nova do Norte, Colider, Itaúba, Claudia, Marcelândia, Feliz Natal e Sinop. Também visitamos os professores de sala de aula que atuam no Ensino Fundamental nessas escolas. Com dificuldades financeiras, sem meios de transporte próprio, com falta de pessoal técnico e especializado e com acumulo de funções e, conseqüentemente, sobrecarga de atividades, o Núcleo de Tecnologia Educacional de Terra Nova do Norte, através de seus especialistas, vem realizando um trabalho exaustivo, mas sem perspectiva: os cursos de capacitação relâmpagos não preparam os professores nem para funções elementares, muitos menos para funções complexas Para esses cursos, deve-se conceber uma carga horária mínima de 100 (Cem) horas/aula, resguardando a relação indissociável entre teoria e prática. A capacitação dos professores multiplicadores, que ainda acontece em nível básico, é a grande dificuldade que os especialistas do núcleo estão encontrando nesse processo, pois não há como dar uma boa capacitação em informática educacional se a maioria dos professores nunca sentaram em frente a um computador. Há necessidade de se rever com muito carinho esse processo de informatização das escolas públicas, tanto na dimensão epistemológica quanto na profissionalização. Há um grande compromisso e força de vontade do pessoal das escolas e dos núcleos, o que nos leva a afirmar que, se não fosse pela tenacidade desses professores o programa já estaria em fase terminal. O programa, portanto, necessita de mais apoio e de investimento em suas potencialidades técnica e pedagógica, pois do modo como está, pouco contribui para a democratização e a melhoria do ensino.
Resumo:
Este trabalho é fruto de uma investigação que buscou elucidar a relação estabelecida entre os serviços de saúde e os seus usuários. Com esse objetivo, utilizou-se uma abordagem antropológica que teve como referência a experiência empírica ligada à Unidade Conceição do Serviço de Saúde Comunitária do Grupo Hospitalar Conceição, em Porto Alegre, RS. Funcionando nas dependências do Hospital Nossa Senhora Conceição, a Unidade Conceição é um posto de saúde vinculado ao Sistema Único de Saúde (SUS) em que médicos gerais comunitários e outros profissionais vêm prestando atendimento de saúde, há cerca de 15 anos, aos moradores da sua vizinhança, calculados atualmente em mais de 20 mil pessoas. Tendo como pano de fundo as influências da cultura no comportamento humano e na prestação de atendimento de saúde, os desdobramentos principais da relação entre a Unidade e os seus usuários foram analisados sob diversos eixos: a história da Unidade, seus conflitos com a instituição e outras especialidades médicas; a relação da Unidade com a área geográfica sob sua responsabilidade; a questão da participação popular nos serviços de saúde, mais especificamente a experiência do seu Conselho Gestor Local; e, por fim, a avaliação dos serviços de saúde, principalmente no que concerne à perspectiva dos pacientes. Sempre que possível, a análise feita procurou fazer uma ligação com as mudanças ocorridas no sistema de saúde brasileiro nos últimos anos. Resgatar os aspectos culturais como elemento essencial para o estabelecimento de uma comunicação efetiva entre os indivíduos e os serviços formais de saúde mostrou-se fundamental para permitir o aprofundamento desse tipo de análise e para qualificar as ações desenvolvidas pelos serviços de saúde.
Resumo:
No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.
Resumo:
O objetivo geral deste trabalho é identificar, através de uma pesquisa exploratória, quais são atualmente as principais estratégias de emprego da Internet como ferramenta de comunicação de marketing, analisando as estratégias mais utilizadas pelos 60 maiores anunciantes (ou maiores utilizadores da Internet como canal de comunicação publicitária) da Internet no Brasil (definidos na fase um deste trabalho - vide metodologia) sob os aspectos de quantidade e tipo de informação. Em seguida, é feita uma análise do conteúdo destes sites de acordo com os parâmetros apontados na revisão teórica, a fim de constatar se os anunciantes aplicam, mesmo que intuitivamente, as técnicas que seriam recomendadas em função da natureza e das características de seus produtos. Os dados coletados nesta pesquisa, depois de processados e analisados, deverão permitir ao final do trabalho responder à seguinte questão: Quando a utilização da Internet como ferramenta de marketing é mais indicada? Em quais situações e de que maneira?
Resumo:
Este trabalho é sobre produção de sentidos. Seu propósito está relacionado à investigação das relações do sujeito com a linguagem na sua forma de escrita alfabética no processo de produção textual escolar. O fato de ocorrer a partir da análise de falas de crianças ao escreverem coletivamente histórias no computador possui dois objetivos; de um lado, interrogar sobre a representação do sujeito no texto e, de outro, questionar a utilização do computador nas escolas como uma nova tecnologia da escrita. Para que fosse possível dar alguma visibilidade ao processo de produção textual e não restringir-se apenas ao produto final, quer dizer à história pronta, optou-se por uma metodologia que permitisse algum tipo de acesso ao modo como a criança produzia o texto. Uma solução viável foi encontrada na gravação das situações interativas de conversação, em que cada grupo de alunos estaria produzindo sua história no computador. Esta gravação tornou-se o material a ser analisado. O referencial teórico está fundamentado na psicanálise, a partir de Jacques Lacan, na lingüística enunciativa, representada por Jaqueline Authier-Revuz e na análise de discurso inaugurada por Michel Pêcheux. Seguindo estas teorias, analisamos o sujeito da enunciação e o inconsciente enquanto discurso do Outro. A análise buscou a indicação de autonímias, onde destacam-se as “não-coincidências do dizer”, termo cunhado por Authier-Revuz para explicitar a presença do outro na constituição do discurso. A partir da análise apontamos para o sujeito como um efeito de leitura do discurso do Outro, um acontecimento que reconfigura a estrutura. Disso segue que todo discurso parte de uma escrita, pois se abre à leitura. Também apontamos para a escrita como a presentificação da diferença. Neste sentido postulamos que a autonímia é constitutiva do discurso pedagógico no que se refere à aprendizagem da língua escrita. Ela é um recurso necessário ao alfabeto. Sem a possibilidade da autonímia seria impossível o ensino da língua.. A partir destes resultados temos indícios que confirmam a hipótese de que o computador é uma nova tecnologia da escrita, assim como foram uma vez o papiro, o alfabeto, a imprensa. De certo modo a questão do sujeito e da linguagem ainda é a mesma, ou seja, diante do real o que o sujeito demanda é que ele seja representável. A forma que esta representação vai tomar depende dos discursos em questão.
Resumo:
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.