914 resultados para Conversores digitais-analogicos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa teve como objetivo geral analisar a racionalidade que em-basa a formação de professores através de EaD, através de descrição de prática, nos cursos de formação de professores oferecidos a distância de uma instituição privada de ensino superior. Como objetivos específicos pretende identificar na rela-ção tutor aluno a racionalidade: prática ou técnica; relacionar dificuldades e/ ou faci-lidades no processo de transposição didático-metodológica no ambiente virtual en-tre tutor/aluno, frente à proposta da racionalidade prática. O trabalho foi desenvolvi-do no modelo qualitativo de investigação, como estudo de caso. Foram entrevista-dos 10 tutores que utilizam o ambiente virtual na modalidade à distância de uma instituição superior privada. A fundamentação teórica foi referenciada em Popke-witz, na análise da Reforma Educacional, e Boaventura Santos, com contribuições quanto à politização da tecnologia. Também contamos com Alarcão, Prestes, Brze-zinski e Namo de Mello, que tratam das possibilidades e perplexidades na formação de profissionais da educação a partir da LDB (Lei 9.394/96). Também com os estu-dos das novas tecnologias, como Macedo, Sancho, Lévy, Lemos, Palloff, Pratt, Ala-va, Preti, Pellanda e Lithwin. Dessa forma, a pesquisa dirige-se para um novo olhar sobre os processos semi-presenciais do ensinar e do aprender no contexto das tec-nologias digitais. O estudo sinalizou que o EaD ainda carece de atenção especial, em várias questões no processo educativo, entre elas, tempo de alunos e tutores e capacitação tecnológica. Assim, busca-se contribuir para a reflexão sobre essa te-mática tão contemporânea. Nessa perspectiva, o estudo não pretende se esgotar e sim, obter subsídios para futuros debates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Após endereçar questões relativas à integração de suas funções internas, a empresa está se voltando para a criação de um ambiente externo interconectado com seus parceiros de negócio. Torna-se imperativo o aperfeiçoamento do relacionamento com estes parceiros, por meio de processos automatizados, que gerenciam as Cadeias de Suprimento e Distribuição formadas. A Tecnologia de Informação, ao permitir a conexão de processos e a interoperação de sistemas, passa a ser um instrumento essencial nesta transformação. Especificamente, o ambiente digital de negócio construído sobre a Infovia, formada principalmente pela Internet e seus serviços, como a WWW, confere avanços consideráveis ao relacionamento dentro da organização, entre organizações e entre estas e seus clientes. A esta transformação do negócio, baseada na Tecnologia de Informação, conectado às redes de comunicação, chama-se Comércio Eletrônico. Com base no conhecimento consolidado pelo referencial teórico disponível e nos resultados obtidos com o estudo de caso conduzido, o autor identifica e categoriza as influências do Comércio Eletrônico nos processos de compra da Cadeia de Suprimentos na indústria química, estruturando estas influências em relação aos modelos de negócios digitais conhecidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foram realizadas classificações utilizando-se as bandas 1 a 5 e 7 dos sensores Landsat 5 TM (1987) e Landsat 7 ETM+ (2000). A caracterização espectral dos materiais foi realizada em laboratório utilizando um espectrorradiômetro, e através das bandas 1 a 5 e 7 dos sensores Landsat 5 TM (1987) e Landsat 7 ETM+ (2000). A transformação dos dados multiespectrais de imagens de sensoriamento remoto é uma maneira de reduzir o volume de dados através da identificação de classes de interesse numa imagem digital. No intuito de verificar condições de melhoramento na classificação de alvos urbanos em imagens digitais, identificados por procedimentos já conhecidos, como a classificação pela Máxima Verossimilhança, escolheu-se um classificador baseado na lógica fuzzy. O classificador utilizado foi o Fuzzy Set Membership classification - Fuzclass, que faz parte de um conjunto de classificadores não-rígidos disponíveis no programa Idrisi 32. Uma vez que informações sobre o desempenho de produtos deste classificador em áreas urbanas são escassas, foram conduzidos ensaios de comparação de resultados obtidos por este classificador com a verdade terrestre, representada por uma imagem de alta resolução espacial do satélite QuickBird. As áreas teste selecionadas desta imagem atendem ao critério de inalterância das condições de ocupação para o intervalo temporal considerado A comparação feita, permite concluir que o classificador apresenta limitações na classificação de áreas urbanas devido ao comportamento espectral semelhante dos materiais que fazem parte dessa cobertura. A utilização de uma classe única para identificar áreas impermeáveis foi a solução adotada para contornar este óbice. O emprego de áreas teste possibilitou acertar a escolha do grau de possibilidade de presença da classe no pixel (PPCP). Uma comparação entre os resultados apresentados na classificação de áreas impermeáveis, com base nos classificadores Máxima Verossimilhança e Fuzclass, demonstrou um desempenho melhor do classificador fuzzy, em função do nível de PPCP ajustado durante a análise comparativa Landsat e Quickbird nas áreas teste. Um procedimento alternativo de estimativa de áreas impermeáveis em bacias urbanas é apresentado no final.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo constitui-se em uma análise de processos de recepção teatral que se propõe a mapear e discutir acerca das diversas mediações que interpolaram o espaço de criação e de co-autoria entre a linguagem teatral e um grupo de crianças espectadoras, podendo ser localizado na intersecção entre três campos distintos: os Estudos Culturais, a Educação e o Teatro. O foco central é refletir acerca das experiências infantis com o teatro na contemporaneidade. Logo, traço relações e constituo a investigação a partir de um triângulo composto por três vértices: o teatro infantil (como produção cultural), as crianças (enquanto sujeitos-atores-personagens desta história) e a escola (como cenário e comunidade de apropriação e interpretação do teatro pelas crianças). O referencial teórico, bem como as análises efetuadas a partir dos dados construídos junto a um grupo de 18 crianças espectadoras, parte da teoria das mediações de Jesús Martín-Barbero, da proposta das múltiplas mediações de Guillermo Orozco Gómez e do conceito de experiência desenvolvido por Larrosa, entre tantos outros autores que inspiraram este estudo. Na construção do material empírico analisado, vali-me de uma estratégia multimetodológica, na qual as crianças e eu, através de jogos teatrais, narrativas orais, entrevistas, produção gráfica e observação participante, construímos os dados. A modo de conclusão, posso inferir que a escola é uma das mediações mais recorrentes e ativas que atravessam e compõem a relação das crianças com a linguagem teatral. O contato com a mídia, com as tecnologias digitais, com produtos e artefatos audiovisuais e espetaculares diversos também são mediações de relevância (repertório anterior), bem como as mediações referenciais (gênero, sexualidade, etnia e grupos de idade), a família e muitas outras que puderam ser observadas, como a presença de rupturas com leituras (ditas) preferenciais, a fuga do onírico e a presença do escatológico em algumas narrativas infantis. Todas estas mediações sugerem às crianças determinado (re)conhecimento de algumas características e especificidades do teatro, assim como expectativas em relação ao contato com a linguagem teatral. As análises empreendidas demonstram que as múltiplas mediações atravessam e constituem, portanto, as experiências infantis nos processos de recepção, contribuindo para a formação de suas – híbridas – identidades de crianças espectadoras na contemporaneidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve a implantação da Gestão por objetivos na Área Industrial da Empresa PARKS Comunicações Digitais, que é uma empresa do segmento de telecomunicações que desenvolve, fabrica e distribui equipamentos destinados à comunicação de dados denominados de "última milha", ou seja, dentro de um sistema de tranmissão de dados e voz, seus equipamentos estão instalados próximos ao usuário final do serviço. São apresentados a geração dos indicadores de desempenho, o treinamento dos gestores da empresa e os resultados auferidos no decorrer dos primeiros anos. A implementação desta metodologia de gestão seguiu o processo de pesquisa e ação, usando técnicas de elaboração de objetivos e de seu acompanhamento. Os resultados foram avaliados através de dados financeiros da empresa, usando um indicador geral, o custo do produto vendido gerencial(CPV), e seus componentes, o custo do produto comprado, o de industrialização e o da não qualidade, cada um com seus próprios indicadores. Verificou-se que, tomando-se como base o CPV, ao longo do período, houve uma redução do mesmo que alcançou cerca de 16% do faturamento bruto obtido. Outro resultado positivo foi a formação de um grupo de gestores já treinado em levantamento, análise e determinação de metas, aguardando as diretrizes para desenvolver o Plano Estratégico da Empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo geral buscar um melhor entendimento do comportamento de compra online e, para tal, valeu-se de cinco objetivos específicos. O primeiro objetivo tratou da ordenação e sistematização do conhecimento sobre esse assunto e, através de seu atingimento, foi possível perceber que o comportamento de compras online tem sido explicado na literatura científica por 3 grandes grupos de variáveis: perfil do consumidor, tipo de uso que faz da Internet e atitude em relação a essa mídia. Também foi possível reduzir de 28 para 13 as variáveis relevantes na explicação desse tipo de consumo. O segundo objetivo tratou de investigar as características que diferenciam compradores de não-compradores e aqui foi possível identificar que compradores online têm perfil socioeconômico mais elevado, viajaram mais para o exterior, conhecem mais o idioma inglês e recebem salários mais altos. Também valorizam mais a conveniência, são mais inovadores, têm menor aversão ao risco e uma orientação experiencial menor, ou seja, necessitam menos ver e pegar o produto antes de decidir comprar. Esses consumidores também têm mais locais de acesso à rede, consideram ter maior conhecimento sobre a Web e a utilizam mais para e-mails, operações bancárias e para levantar informações sobre produtos e serviços. Tendem a enxergar a Internet mais útil e divertida do que os não-compradores. O terceiro objetivo tratou de identificar diferentes segmentos de consumidores online e 5 grupos distintos surgiram. Entre os não-compradores caracterizou-se os grupos Internet não é comigo, Gosto da Internet, mas não sei se vou comprar e o Estou quase lá. Entre os compradores foi possível encontrar os grupos Estou testando e Fãs de carteirinha. Percebeu-se que os cinco grupos formam um contínuo que representa um caminhar em direção às compras online, guardando semelhanças com a Teoria da Difusão das Inovações. O quarto objetivo buscou desenvolver um modelo que estimasse como a probabilidade de consumo online é afetada pelo perfil, uso da Internet e atitudes. Segundo esse modelo, tal probabilidade é maior quando o consumidor acessa a Internet de mais lugares; utiliza a rede para banking, levantar informações sobre produtos e serviços e buscar ofertas; viaja mais para o exterior; conhece mais o idioma inglês; possui mais bens digitais; está mais envolvido com a Internet; vê mais utilidade da na rede; acha importante poder comprar sem sair de casa; tem mais propensão ao risco; não se julga muito inovador; e, mais importante, tem baixa orientação experiencial, dispondo-se a comprar sem ver e pegar o produto antes. O quinto objetivo era oferecer sugestões de cunho prático a gerentes e empreendedores e entre elas é possível destacar as seguintes: 1) Constatou-se a necessidade dos sites também terem elementos hedônicos, não apenas utilitários; 2) Os produtos de mais aceitação para venda online são os de busca, seguidos, na ordem, pelos tipo experiência-2, tipo experiência-1 e, por último, confiança; 3) Uma maior percepção de segurança online leva a mais compras e maior freqüência de compras; 4) Os achados descritos no quarto objetivo podem servir para localizar potenciais consumidores online; 5) As descobertas do terceiro objetivo podem orientar o processo de conversão e manutenção de compradores online.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação é apresentado o atual estágio da Indústria de Entretenimento Móvel no Brasil, com base numa análise do setor de telefonia celular e da sua interação com a indústria do entretenimento. Para isso, discutem-se as principais características e dificuldades encontradas, por esses dois setores, na tentativa de implementação e gerenciamento de um modelo de negócios adequado à Indústria de Entretenimento Móvel. Realizou-se uma pesquisa exploratória, qualitativa, na qual foram efetuadas entrevistas com representantes da telefonia móvel e fornecedores de conteúdo de entretenimento no Brasil. Também foram analisados documentos secundários, tais como dados dos dois setores investigados disponíveis em websites e reportagens em revistas de negócios. Observou-se que, devido a uma relativa saturação do mercado de voz, o setor de telefonia celular, no Brasil, vem tentando ampliar suas receitas, direcionando-se para produtos da indústria do entretenimento. Essa junção vem resultando em um tipo novo de indústria. O avanço tecnológico foi determinante para essa interação através da evolução dos telefones celulares, que incorporaram novos recursos multimídia transformando-se numa nova mídia, com o surgimento do protocolo de Internet (TCP/IP). Com a tecnologia disponível, as duas indústrias começaram a ter interesses recíprocos: a indústria de telefonia móvel buscando oferecer novos serviços a seus usuários, visando o aumento do ARPU (Average Revenue per User); e a indústria de entretenimento buscando uma nova mídia para vender seus produtos, principalmente jogos, músicas e vídeos digitais. Entretanto, essas indústrias se posicionaram em bases diferentes, apesar de serem indústrias de serviços: a indústria de telefonia móvel, no Brasil, tem sua base na venda de mercadorias comoditizadas, tanto com minutos de voz quanto pela troca de dados; já a indústria do entretenimento tem o valor imaterial e intangível muito forte na composição do preço de troca de seus produtos. As diferentes formas de fazer negócios dessas duas indústrias têm gerado dificuldades na solidificação do que se convencionou chamar, no ambiente mercadológico, por “modelo de negócios”. 9 O desenvolvimento de modelos de negócios que responda às necessidades das duas indústrias é, segundo os entrevistados, o principal obstáculo para o aproveitamento do potencial da Indústria de Entretenimento Móvel. Essas diferenças constituem-se no principal argumento, deste autor para considerar a Indústria de Entretenimento Móvel separada de suas indústrias formadoras, criando uma “nova indústria”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação trata da elaboração de uma ferrramenta para a geração de filtros FIR otimizados paralelos com coeficientes constantes. A ferramenta desenvolvida é capaz de gerar uma descrição VHDL de um filtro FIR paralelo com coeficientes constantes a partir das especificações do filtro. São exploradas técnicas de otimização de coeficientes e de otimização arquitetural. As técnicas empregadas são baseadas no uso de representações ternárias e redução do número de digitos não-zero dos coeficientes, uso de fatores de escala e eliminação de sub-expressões comuns. No texto, uma breve introdução sobre os filtros digitais é apresentada seguida por uma série de trabalhos encontrados na literatura relacionados às técnicas mencionadas e que são apresentados como base para o desenvolvimento da ferramenta implementada nesta dissertação. O funcionamento da ferramenta é detalhado tanto nos seus aspectos de algoritmo quanto em nível de implementação. São apresentados resultados de síntese em alguns de filtros hipotéticos projetados utilizando a ferramenta desenvolvida. Uma análise detalhada dos resultados obtidos é realizada. Os apêndices deste trabalho apresentam o código fonte da ferramenta de síntese de filtros desenvolvida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho analisa diferentes modelos de representação temporal usados em arquiteturas conexionistas e propõe o uso de um novo modelo neural, chamado Neurônio Diferenciador-Integrador (NDI) para aplicação com processamento de sinais temporais. O NDI pode ser interpretado como filtro digital. Seu funcionamento exige poucos recursos computacionais e pode ser de grande valia em problemas onde a solução ideal depende de uma representação temporal instantânea, facilidade de implementação, modularidade e eliminação de ruído. Após a definição do modelo, o mesmo é sujeito a alguns experimentos teóricos utilizado em conjunto com arquiteturas conexionistas clássicas para resolver problemas que envolvem o tempo, como previsão de séries temporais, controle dinâmico e segmentação de seqüências espaço-temporais. Como conclusão, o modelo neural apresenta grande potencialidade principalmente na robótica, onde é necessário tratar os sinais sensoriais ruidosos do robô de forma rápida e econômica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Brasil possui um dos maiores mercados de telefonia celular do mundo, resultado de um crescimento impulsionado, sobretudo, pela expansão agressiva do modelo de serviço pré-pago. Este crescimento se deu por meio de grandes investimentos em subsidio como forma de aumentar a atratividade dos aparelhos celulares comercializados nos pontos de venda. Estes investimentos ao mesmo tempo em que aceleraram a captação de novos clientes comprometeram a rentabilidade deste segmento e da margem EBITDA (Earnings Before Interest, Taxes, Depreciation and Amortization) consolidada do setor no Brasil quando comparada a outros países. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra de um aparelho celular é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos aparelhos celulares comercializados no mercado de massa brasileiro e seus respectivos preços implícitos. São 96 aparelhos celulares monitorados semanalmente ao longo do ano de 2007, constituindo mais de 37.000 registros. Como resultado, no estágio de maturidade do mercado na época, foram identificados intensos prêmios de preço associados às características físicas (design) e à presença de atributos relacionados à itens de multimídia (câmeras digitais, vídeos e MP3 player). Por fim, utilizamos o modelo econométrico desenvolvido para simular e identificar o preço sugerido ou potencial de novos celulares, não presentes na amostra utilizada para a regressão, mas constituídos por novas combinações de atributos com preços implícitos já identificados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As instituições que mantêm acervos de História Oral têm como constante desafio a manutenção e a preservação de seus documentos, sobretudo aqueles de natureza sonora e audiovisual. O uso de tecnologias digitais está trazendo novas possibilidades para a preservação de longo prazo de acervos audiovisuais, através de métodos mais seguros. O CPDOC, que mantém desde 1975 o seu pioneiro Programa de História Oral, vem procurando acompanhar de perto essas questões, algumas das quais serão abordadas no presente texto. Antes de nos debruçarmos sobre as questões que tratam diretamente da preservação e dos padrões utilizados no CPDOC, se faz necessária uma sumária abordagem de algumas das principais características dos documentos audiovisuais, de maneira que o leitor possa melhor se inteirar de toda a problemática que os faz singulares.