905 resultados para nível protéico
Resumo:
Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.
Resumo:
Este estudo identifica a relação entre controle percebido e desempenho acadêmico de crianças em situação de risco social e pessoal na cidade de Porto Alegre. Foram examinadas 61 crianças, sendo 30 meninos e 31 meninas com idades de 7 a 8 anos, que freqüentavam a primeira série de duas escolas estaduais da periferia de Porto Alegre. Os dados foram obtidos através da aplicação de uma escala de controle percebido, o CAMI ( Control, agency, Interview), que verifica os componentes de crenças como locus de controle, atribuição de causalidade, auto-eficácia e desamparo aprendido, bem como foram utilizados o Teste de Desempenho Escolar e o desempenho atribuídos a cada criança com base nas provas finais do ano letivo, resultando em aprovado e reprovado. Quarenta e três crianças tiveram como resultado a aprovação e dezoito foram reprovadas. Os resultados deste estudo foram obtidos através de regressão múltipla e logística, médias e análise de variância (ANOVA). Os resultados encontrados neste estudo confirmam que existe relação entre controle percebido e desempenho acadêmico, como também que as crenças de controle, crenças de capacidade e crenças de estratégia variam de acordo com a idade e o gênero.
Resumo:
A competitividade das empresas apresenta forte ligação com a qualidade do relacionamento com o cliente. Para competir em tempo real é preciso dotar a empresa de meios que permitam conhecer e relacionar-se de forma cada vez mais eficiente com os clientes. O uso intensivo da tecnologia é fator que contribui para que o relacionamento com o cliente se torne mais efetivo. CRM (Customer Relationship Management) faz uso da tecnologia de informação com o objetivo de desenvolver e gerenciar relações entre empresas e seus clientes, de forma individualizada e mutuamente benéfica. O presente trabalho refere-se à implementação de um sistema CRM, abrangendo as etapas de seleção da solução de CRM, definição do organograma, cronograma e metodologia de trabalho, redesenho dos processos de atendimento ao cliente e configuração do software. Também é objeto deste trabalho a verificação do nível de satisfação do cliente resultante. O estudo foi desenvolvido junto a uma empresa do setor petroquímico, caso pioneiro de implantação de CRM no país, considerando o segmento de mercado em análise. O texto discute a relação existente entre um sistema de CRM e a satisfação do cliente, apresentando os resultados de uma pesquisa de satisfação aplicada aos clientes da empresa em estudo.
Resumo:
Este trabalho procura fazer um estudo das características dos gerentes médios do Banco do Brasil no estado do Rio Grande do Sul, considerando o contexto em que está inserida a organização, de modo a caracterizá-los como gerentes tradicionais ou gerentes contemporâneos. Trata-se de uma pesquisa exploratória na qual foram encaminhados questionários fechados a 184 gerentes médios das agências nível 1 do BB no Estado, sendo que destes retornaram 106, dos quais 97 foram considerados válidos. Os principais resultados obtidos, no trabalho, evidenciaram um gerente médio tanto com características tradicionais, quanto com características contemporâneas, o que se deve às mudanças que se processam na organização e no seu ambiente, à cultura centenária do Banco do Brasil e a um discurso organizacional pouco uniforme. Neste contexto de complexidade em que se evidencia um paradoxo, entre o tradicional e o contemporâneo, a espiral do conhecimento aparece como uma explicação lógica e coerente ao sincretismo do gerente médio do Banco do Brasil.
Resumo:
A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.
Resumo:
Este trabalho é um estudo exploratório sobre hábitos de consumo e nível de satisfação dos consumidores de carne bovina no Município de Dom Pedrito. Foi desenvolvido a partir de uma amostra de 448 compradores domiciliares de carne bovina, por meio da qual buscou-se verificar os hábitos de consumo e nível de satisfação dos consumidores a fim de possibilitar aos produtores rurais daquele município conhecer o consumidor e seu grau de satisfação diante do tipo de carne bovina oferecida. Com o propósito de delinear hábitos de consumo, utilizaram-se como referencial teórico o comportamento do consumidor e os conceitos pertinentes a teorias de satisfação. Procurou-se conhecer algumas características demográficas dos consumidores, seus hábitos de consumo, elementos utilizados na decisão de compra, grau de importância atribuído aos atributos de compra e, por último, o nível de satisfação em relação à carne bovina comercializada em Dom Pedrito. Na análise dos dados, foram utilizadas ferramentas estatísticas apropriadas, como estatística descritiva e análise de variância. A análise foi feita, ainda, de forma a buscar uma correlação entre o grau de importância atribuído pelos consumidores e o nível de satisfação encontrado em alguns atributos. Dentre os resultados obtidos, os principais indicadores de qualidade da carne bovina apontados pelos consumidores foram a “cor”, a “maciez” e uma carne “sem nervos”. As principais razões para consumo da carne bovina foram os “aspectos nutritivos” da carne, a “diversidade de pratos preparados” e a “tradição da região”. Em relação ao nível de satisfação do consumidor, os resultados demonstram que 81,0% dos consumidores estão satisfeitos com o atributo “aspecto nutritivo” da carne bovina, e o menor nível de satisfação apresentado pelos consumidores foi em relação ao atributo “preço” (55,2%). No que tange à análise combinada da importância e satisfação referente a alguns atributos apresentados ao consumidor de carne bovina, o atributo “atendimento” merece atenção, pois apresenta grau de importância alto e nível de satisfação médio.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
A satisfação do cliente tem se colocado como prioridade de investigação para acadêmicos e praticantes de marketing nas últimas décadas. Isto se deve à difusão do conceito de marketing, e o consequente aumento do interesse pela retenção dos clientes. As escolas de ensino fundamental no Estado do Rio Grande do Sul passam pelo mesmo fenômeno, devido ao crescimento do número de concorrentes e da intensidade competitiva. Este trabalho, realizado no início de 2001, objetiva mensurar e analisar a satisfação dos clientes de quatro escolas de ensino fundamental da SCALIFRA-ZN no Estado do Rio Grande do Sul, indicando, como conclusão, pontos de melhoria a serem seguidos pelas mesmas.
Resumo:
Este estudo tem por objetivo analisar o mercado para o desenvolvimento de um novo serviço do SEBRAE/RS, chamado “Prospecção de Mercado Interno em Nível Coletivo” para grupos de empresas do tipo MPEs (Micro e Pequenas Empresas), das Doceiras de Pelotas. Procurou-se por meio de pesquisa qualitativa exploratória identificar o interesse dos empresários quanto à participação em um programa de acesso a mercados em nível coletivo, bem como se estes empresários investiriam parte de seu orçamento neste novo serviço e se as características de comportamento do empreendedor estão presentes nestes empresários de pequenas empresas. Os resultados indicam uma boa aceitação deste serviço junto ao grupo de MPEs investigado, e que o instrumento de pesquisa pode ser utilizado para futuros estudos com grupos de MPEs de outros setores.
Resumo:
Um dos principais fatores que determinam o baixo desempenho das avaliações está relacionado à omissão de importantes atributos nos processos avaliatórios. A seleção de bens comparáveis ao imóvel avaliando e o reconhecimento das variáveis que devem participar do modelo avaliatório são fatores determinantes no resultado das avaliações. Falhas na interpretação destes aspectos, bem como o limitado conhecimento quanto à forma de interação dos atributos na formação do valor dos imóveis, tendem a gerar distorções nas estimativas de valor obtidas. Para minimizar os erros e reduzir a imprecisão dos trabalhos, é imprescindível saber quais atributos contribuem para a formação do valor dos imóveis. O presente trabalho objetiva aumentar a compreensão dos atributos que influenciam a decisão de compra dos apartamentos residenciais através da análise das preferências dos consumidores. O estudo visa verificar se parte da imprecisão dos trabalhos avaliatórios é causada pelo desconhecimento parcial destes atributos por parte dos avaliadores Para tanto, realizou-se uma pesquisa de caráter exploratório, cujos instrumentos de levantamento de dados são questionários, aplicados para verificar e comparar a importância atribuída a um extenso número de atributos por dois grupos distintos, formados por avaliadores de imóveis e compradores. Os resultados obtidos indicam que os atributos usualmente empregados na prática avaliatória não são, em sua grande maioria, aqueles que influenciam a decisão de compra no processo de aquisição dos imóveis. Além disso, apesar de existir coerência na interpretação dos avaliadores sobre a contribuição de uma série de atributos para a formação do valor de mercado dos imóveis, foram identificadas distorções na forma como estes profissionais percebem a importância de alguns atributos, havendo, por exemplo, uma supervalorização de aspectos relativos à localização e segurança Por outro lado, os avaliadores não distinguem a elevada influência de alguns atributos no processo de decisão de compra, tais como existência de elevador e gás central, áreas de serviço maiores e idoneidade da empresa que construiu o imóvel. Embora o trabalho não apresente resultados plenamente conclusivos neste sentido, pode-se dizer que há um forte indicativo de que o nível de imprecisão das avaliações imobiliárias possa ser reduzido através de uma maior compreensão das preferências dos consumidores.
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
O trabalho procura mapear e interpretar o processo de formação de caixa decompondo e analisando as atividades que contribuem para liberar ou retirar recursos do fluxo de caixa. Procura também avançar no problema da determinação do nível ótimo de liquidez que deve ser mantido pelas empresas.
Resumo:
Resumo não disponível.
Resumo:
Foram examinadas as determinantes do nível de liquidez das firmas brasileiras, em um estudo de dados em painel com 295 firmas de capital aberto no período entre 1994 e 2004. Neste estudo, a liquidez foi definida como o estoque de caixa e títulos com liquidez dividido pelo total de ativos da firma. A análise empírica sugere que a liquidez das firmas brasileiras não é determinada por políticas específicas, sendo uma variável endógena, resultante das componentes do fluxo de caixa. Os principais resultados do modelo sugerem que o nível de liquidez é crescente em função do tamanho, do endividamento de curto prazo, e da lucratividade (tanto em termos de fluxo de caixa quanto lucro contábil), enquanto é decrescente em função do risco Brasil e do nível de capital de giro. A teoria do pecking order parece prevalecer nas decisões de financiamento das firmas. Alguns destes resultados, assim como a insignificância de outras variáveis testadas, contrariam as expectativas teóricas de como as firmas deveriam se comportar em relação ao nível de liquidez, com o objetivo de maximizar o valor da firma. O excedente de caixa ocorre nas grandes firmas com alta geração de caixa, e estas firmas podem estar incorrendo elevados custos de agência/expropriação, com prejuízo principalmente para os acionistas minoritários.