875 resultados para validação
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
O computador atualmente está presente no dia a dia das pessoas e no trabalho. É praticamente impossível conceber a vida moderna sem a interface com computadores. Cuidados devem ser observados quando se está diante de um terminal de microcomputador, evitando uma série de doenças decorrentes de seu mau uso. O objetivo deste estudo é definir parâmetros ergonômicos para a indicação de uma mesa de trabalho informatizado para os taquígrafos do Tribunal de Justiça do Rio Grande do Sul, que dentre uma das tarefas realizadas na função de taquígrafo é a de entrada de dados. O estudo foi baseado no método de Guimarães et al (2001) para avaliação de assentos, para tanto, realizou-se um experimento comparativo de mesas de trabalho informatizado durante o trabalho. Inicialmente os taquígrafos responderam um questionário relativo à demanda das mesas de trabalho, logo após, verbalizaram sobre a percepção de alguns critérios de importantes em uma mesa de trabalho e com a mesa definida verificou-se a ordem de preferência das mesas, antes do experimento. Posteriormente um grupo de voluntários testou a mesa proposta, comparando-a a mesa existente, para tanto foram preenchidos um conjunto de questionários nos quais mediu-se a satisfação com relação aos critérios estabelecidos, a importância atribuída a cada um destes critérios e a ocorrência de desconforto/dor. Os resultados submetidos à validação estatística. A análise dos resultados demonstrou a preferência dos taquígrafos pela mesa proposta, devido ao espaço por ela oferecido, a existência de apoio para braços e regulagem na altura.
Resumo:
Recentes pesquisas têm apontado o Alinhamento Estratégico (AE) como uma das principais preocupações dos executivos. Extrair informações úteis a partir dos investimentos realizados em Tecnologia da Informação (TI) está entre os principais objetivos dos chefes executivos das organizações (CEO). A presente pesquisa tenta identificar os critérios de AE, juntamente com as suas práticas, que são mais promovidos em organizações da Região Sul do Brasil. Esta pesquisa pode ser classificada como um estudo quantitativo-descritivo, e utiliza o método estatístico para a obtenção, processamento e validação dos dados. O método empregado foi o de um levantamento de informações (survey), e a coleta de dados obedeceu à concepção dos estudos transversais. Como instrumentos de coleta, foram utilizados questionários auto-aplicáveis, preenchidos por chefes de informática (CIO) das empresas e por executivos de médio e alto escalões de outras áreas, tais como compras, vendas, controladoria, financeira, recursos humanos, etc. Responderam os questionários 259 executivos de 72 empresas industriais pertencentes à região sul do Brasil. A partir do procedimento de refinamento do questionário, que foi baseado nos modelos de Luftman (2000) e de Brodbeck e Hoppen (2003), foi elaborado um instrumento formado por seis critérios e por trinta práticas, postulado como adequado ao contexto brasileiro. Quanto à promoção destes critérios, o de Comunicação foi considerado o mais importante e promovido, enquanto que o critério de Medidas de Valor e Competência foi considerado o de menor promoção. A partir da realização de análise de regressão, foi possível determinar que o critério Comunicação é mais impactado pelo critério de Escopo e Arquitetura. Através da realização de análises de variância, foi possível observar que as empresas de grande porte promoveram mais os critérios de de Habilidades, Governança, Medidas de Valor e Competência e Escopo e Arquitetura, quando comparados com os resultados obtidos em empresas de pequeno porte. Como contribuições práticas, foram obtidas listagens das práticas mais importantes, mais promovidas, de implementação mais fácil e mais difícil. Estas listagens podem auxiliar gestores de empresas na promoção de níveis mais elevados de maturidade de AE.
Resumo:
Desenvolveu-se uma metodologia que dispensa a dissolução completa da amostra para determinar Hg em solos, sedimentos fluvial e marinho. O Hg é quantitativamente extraído do sedimento marinho usando-se HNO3 30% (v/v), ultra-som (120 s, 70 W) e granulometria ≤ 120 µm. Condições similares são eficientes para sedimento fluvial e solo, exceto o tempo de sonicação (180 s) e a adição de KCl 0,15% (m/v). As suspensões sonicadas são centrifugadas e o Hg é determinado no sobrenadante por FI-CV AAS. A validação da metodologia foi feita com CRMs: PACS-2, MESS-3 (NRCC); Buffalo River (NIST 8704), Montana Soil (NIST 2710) e RS-3 (não certificada). Os parâmetros de mérito do método são: massa característica de 25 pg; LD (3s) de 0,2 µg l–1; LQ (10s) de 0,012 µg g–1 (800 µl de solução obtida de 1 g de amostra em 20 ml de suspensão). Aplicou-se a metodologia à análise de amostras reais (solo, sedimentos fluvial e marinho), as quais também foram preparadas com digestão ácida (85 °C durante 3 h) em mistura oxidante (K2S2O8 1 a 2% (m/v) e HNO3 30% (v/v)). Concentrações concordantes foram obtidas. Utilizou-se calibração externa e, quando necessário, ajuste de matriz com KCl ou K2S2O8. Para investigar a extração de Hg orgânico utilizando ultra-som, adicionou-se MeHg aos CRMs. Aproximadamente 5% do MeHg adicionado transformam-se em Hg2+ pelo método proposto, enquanto que chega a 100% quando a amostra é digerida. Assim, propõe-se uma especiação química semiquantitativa entre Hg inorgânico e orgânico, pois o Hg orgânico pode ser obtido pela diferença entre Hg total (determinado pela digestão) e Hg inorgânico (determinado pelo método proposto).
Resumo:
O presente trabalho aborda o desempenho dos sistemas municipais de saúde, tendo como foco a saúde materno-infantil. Com o objetivo de apontar as possíveis fragilidades dos sistemas de saúde, especificamente daqueles em que a Atenção Primária (AP) é a principal ou exclusiva estratégia de atuação da gestão municipal, foi criado um modelo teórico de avaliação dos indicadores de saúde, denominado de ADS. Aplicado às cidades com população entre 14 mil e 35 mil habitantes, onde o sistema de saúde se baseia exclusivamente na política de AP, esse modelo foi construído por meio da técnica de consenso, com a formação de um grupo de 12 especialistas na área de saúde coletiva para definição e validação de critérios para análise dos sistemas. Testado na cidade de Iati, localizada no Agreste Meridional e distante 282 quilômetros da capital pernambucana, o ADS apontou fatores ambientais e socioeconômicos abaixo da média, além de vulnerabilidades da assistência materno-infantil que influenciam negativamente a situação de saúde do município. A avaliação verificou ainda desempenho insatisfatório no que diz respeito ao acompanhamento das crianças e gestantes por meio de consultas médicas (efetividade); assistência à criança (continuidade); cobertura de consultas em crianças e imunização de gestantes (acesso aos serviços da Atenção Primária); produtividade das ações realizadas pelos profissionais de saúde (eficiência) e capacidade de investigação dos óbitos infantis, qualidade dos registros e controle da sífilis em gestantes (vigilância à saúde). Também foi observada baixa alocação de investimentos em saúde em combinação com a carência de recursos humanos e materiais para prestar os serviços. Ao final da pesquisa, foi possível constatar a viabilidade de aplicação do modelo para planejamento das auditorias, avaliando o desempenho dos indicadores de saúde no âmbito municipal.
Resumo:
As organizações têm investido recursos significativos no desenvolvimento de cursos baseados em ambientes virtuais de aprendizagem na Internet. Esta modalidade de educação a distância apresenta vantagens significativas, derivadas principalmente da grande flexibilidade de tempo, local e recursos que a caracteriza. É preciso considerar, entretanto, que a esperança de uma utilização ampla dos cursos na Internet depende de diversos fatores que influenciam a efetividade destes cursos, como o modelo de aprendizagem, a tecnologia, o conteúdo, os professores e o nível de interação. Mas a preocupação desta pesquisa está no comportamento do estudante e no seu impacto. Mais particularmente, ela tem por objetivo identificar a influência das diferenças individuais dos estudantes em relação às preferências por contato social e à auto-regulação dos recursos da aprendizagem na efetividade dos cursos desenvolvidos em ambientes virtuais de aprendizagem na Internet. Para isso, realizou-se um estudo de caso no Curso de Capacitação de Técnicos dos Núcleos de Tecnologia Educacional (NTE) das escolas da Região Sul do Brasil. Foram utilizadas seis fontes de coleta de dados: levantamento estruturado (Pesquisa Survey), observação direta, análise de registros e documentos, entrevistas abertas e entrevistas semi-estruturadas. A Pesquisa Survey foi, contudo, o meio de coleta de dados mais relevante. Para realizá-la, adaptou-se e validou-se ao contexto da pesquisa algumas escalas ligadas à auto-regulação dos recursos de aprendizagem (gestão do tempo, do ambiente, do esforço, do ambiente social e prorrogação da gratificação acadêmica) e às preferências por contato social (motivação ao contato social e preferência por solitude). No processo de validação, realizou-se um estudo piloto aplicando o questionário preliminar em 292 estudantes de graduação de universidades de Porto Alegre (em cursos presenciais). Na coleta definitiva dos dados no Curso de Capacitação de Técnicos do NTE, foram realizadas 28 entrevistas semi-estruturadas e aplicou-se o questionário com 104 estudantes do curso. A análise dos dados permitiu verificar a influência dos fatores anteriormente citados de auto-regulação e contato social na percepção (1) dos resultados, (2) da qualidade e (3) da satisfação com o curso, (4) na percepção de efetividade dos cursos na Internet em comparação com os cursos presenciais e (5) na percepção das vantagens e desvantagens dos cursos na Internet. Os resultados mostram que os estudantes que conseguiram auto-regular melhor o ambiente social, o tempo, o esforço e o ambiente de estudo, além de apresentarem uma maior necessidade de apoio emocional, perceberam uma maior efetividade e qualidade no Curso de Capacitação de Técnicos do NTE, além de ficarem mais satisfeitos Também se verificou que os estudantes que acreditam que em muitos aspectos os cursos na Internet podem ser mais efetivos do que os cursos presenciais, apresentam igualmente uma maior auto-regulação do tempo, do esforço, do ambiente social, além de uma maior tendência de prorrogação da gratificação acadêmica, uma necessidade relativamente grande de atenção e intermediária de estímulo positivo. Os resultados encontrados mostraram ainda que os estudantes que identificaram mais vantagens nos cursos via Internet foram também mais capazes na gestão do ambiente social, do tempo, do esforço, além de apresentarem uma maior tendência à prorrogação da gratificação acadêmica e uma relativamente alta necessidade de apoio emocional e estímulo positivo. Por fim, se identificou grupos de estudantes com perfis similares de preferência por contato social e de auto-regulação dos recursos de aprendizagem e a influência destes perfis na efetividade dos cursos desenvolvidos na Internet.
Resumo:
A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.
Resumo:
The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.
Resumo:
A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.
Resumo:
A governança corporativa define um conjunto de regras que busca alinhar ação do agente em relação às decisões estratégicas da empresa, assim maximizando os benefícios gerados aos seus stakeholders, em especial aos acionistas. Para pequena média empresa demandante de recursos, tal ferramental extremamente importante para aumentar sua capacidade de captação dos recursos necessários ao seu crescimento desenvolvimento, uma vez que reduz assimetria informacional entre esta seus principais agentes financiadores: credores novos investidores. Esta dissertação visou compreender quais as principais questões de governança corporativa de pequenas médias empresas brasileiras, especialmente aquelas em expansão, buscando definir partir destas algumas contribuições das boas práticas de governança corporativa para esse segmento. Na revisão bibliográfica foram levantados, segundo teoria da agência e teorias complementares, os principais conceitos ligados governança corporativa. Também realizada uma análise destes conceitos segundo captação de recursos estrutura de capital da companhia, dado que pressupõe entrada de novos investidores credores. Para validação desse referencial foram realizadas entrevistas em profundidade com técnicos gestores das relacionados as atividades de venture private equity realizadas pela BNDESPAR. Por meio deste, foi possível definir, segundo os problemas suas causas, algumas diretrizes de melhores práticas de governança para pequenas médias empresas brasileiras.
Resumo:
A inclusão de pessoas com deficiência é um desafio, não só, para as organizações, quanto também, para as pessoas com deficiência que desejam um trabalho onde possam ter seus direitos respeitados e resguardados. Nesse processo o profissional de Gestão de Pessoas tem um papel que é o de tornar o ambiente acessível a todos, mapear os cargos e postos de trabalho, sensibilizar as pessoas da empresa, capacitar os gestores para a minimização do impacto da integração ao ambientes de trabalho e domínio das ferramentas de contratação dos profissionais com deficiência, validação do programa de inclusão, e de capacitação de profissionais com deficiência. Este trabalho objetiva pesquisar se os profissionais de Gestão de Pessoas estão aptos para o desafio de implantar e desenvolver as políticas internas de inclusão das pessoas com deficiência, nas empresas em que atuam. Para tanto, foi feito uma pesquisa juntos aos profissionais responsáveis pelos programas de inclusão, em empresas com mais de 1.000 funcionários no município de São Luís – MA, para avaliar as práticas adotadas pelas organizações.
Resumo:
Métodos ‘in vivo’ são ideais para avaliar o valor nutritivo dos alimentos, porém são caros, demorados e avaliam poucos alimentos por vez. Portanto, métodos ‘in vitro’ e ‘in situ’ têm sido freqüentemente utilizados. Entre estes, tem se destacado a técnica de produção de gases ‘in vitro’, a qual vem sendo amplamente utilizada, particularmente pelos países do Hemisfério Norte. A sua modificação, tornando-a mais prática e semi-automatizada, tem impulsionado a sua utilização no Brasil. No entanto, a validação do uso desta técnica nos sistemas tropicais de produção animal necessita ainda ser estabelecido. O objetivo deste trabalho foi testar a técnica de produção cumulativa de gases ‘in vitro’, na avaliação da qualidade fermentativa e nutritiva de silagens de milho, e comparar seus resultados com os métodos tradicionais de digestibilidade ‘in vitro’ e de degradabilidade ‘in situ’. Para tanto foram utilizadas como ferramenta de pesquisa, silagens de milho colhidas em diferentes estágios de desenvolvimento e submetidas à diferentes níveis de compactação à ensilagem. Utilizado complementarmente à análise químico-bromatológica, o método de produção de gases ‘in vitro’ demonstrou ser uma boa ferramenta para avaliação da qualidade dos alimentos para ruminantes. Quando comparado ao método in vitro tradicional, possui as vantagens do método ‘in situ’ por estimar também a cinética da degradação ruminal do alimento. Contudo, é mais prático e, por possibilitar conhecer as taxas de degradação de diferentes frações dos alimentos, foi também mais sensível. Além disso, embora necessitando ainda adequada validação in vivo, permitiu estimar a eficiência da síntese microbiana ruminal.
Resumo:
Esta tese tem como tema central o estudo da lealdade de clientes pessoa física por serviços bancários no Brasil. Para estudo do assunto, foram propostos os seguintes objetivos: (1) identificar os fatores que os clientes de serviços bancários associam como benefícios; (2) identificar os sacrifícios incorridos pelos clientes nos serviços bancários; (3) desenvolver uma escala de valor percebido por clientes, pessoa física, de serviços bancários no Brasil; (4) elaborar um modelo teórico que identifique a forma de relacionamento das dimensões de valor que resultam na satisfação, na confiança e na lealdade dos clientes de serviços bancários e (5) testar empiricamente a rede nomológica do modelo desenvolvido, envolvendo valor, confiança, satisfação e lealdade. Inicialmente foi realizada uma revisão da literatura acadêmica acerca dos temas valor percebido, confiança, satisfação, lealdade e segmento bancário brasileiro, além dos aspectos relacionais entre os construtos. Para análise das relações foi proposto um modelo estrutural relacionando os construtos mencionados e composto por 13 (treze) hipóteses. Em seguida, procedeu-se à construção de uma escala de mensuração de valor percebido por clientes de serviços bancários de acordo com as etapas sugeridas pela literatura. A fim de testar e validar a escala foram realizados dois estudos de campo, sendo o primeiro composto por 167 (cento e sessenta e sete) estudantes de graduação e pós graduação que utilizam serviços bancários e o segundo por 341 (trezentos e quarenta e hum) clientes de serviços bancários de diferentes bairros da cidade de Fortaleza, CE. Durante o trabalho de pesquisa descritiva foi utilizado o método de survey (levantamento), baseado na coleta dos dados primários através de questionários estruturados. A análise dos resultados se utilizou de abordagens quantitativas, em especial análise de correlação bivariada, análise de regressão múltipla e técnicas estatísticas de modelagem de equações estruturais. De forma geral, os objetivos da pesquisa foram atendidos, com a validação da escala de mensuração de valor percebido em serviços bancários e com a confirmação de 5 (cinco) hipóteses através da modelagem de equações estruturais que foram: (1) a dimensão qualidade operacional está positivamente relacionada à confiança, (2) a dimensão qualidade operacional influencia positivamente a satisfação do consumidor, (3) a dimensão comodidade e acesso influencia direta e positivamente à satisfação, (4) a satisfação influencia direta e positivamente à confiança e (5) a confiança influencia direta e positivamente à lealdade. Ao final do trabalho, indicações de possíveis aprimoramentos para futuras pesquisas são discutidas
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
A energia necessária ao ser humano para realizar suas atividades, principalmente nos últimos dois séculos, aumentou drasticamente e tende a continuar aumentando. Para abastecer energeticamente estas atividades, o ser humano lançou mão, principalmente, de recursos fósseis e hídricos. Estes recursos, finitos ou limitados, são de abastecimento restrito devido a questões geopolíticas, econômicas e ambientais, motivos suficientes para que ocorra uma busca por alternativas a estas fontes energéticas. No entanto, o uso de biocombustíveis na substituição da gasolina tem sofrido criticas por ter sido relacionado à diminuição da oferta de alimentos e conseqüente aumento do preço destes. Diante deste contexto, pretende-se, com este trabalho, aprofundar a discussão do atual perfil de produção de cana-de-açúcar, maior fonte nacional de biocombustível na atualidade, no estado de São Paulo, maior produtor de cana do país, e sua relação com a produção de alimentos neste estado. Os dados brutos aqui trabalhados foram obtidos do IBGE – Produção Agrícola Municipal (PAM) e Produção da Pecuária Municipal (PPM) nos anos de 1990, 1999 e 2008 das regiões do Estado de São Paulo. Os mesmos foram convertidos a mapas para visualização da dinâmica produtiva agropecuária do Estado de São Paulo, utilizando-se o programa ArcMap®. As atividades agropecuárias selecionadas foram as de mais expressão produtiva: cana-de-açúcar, café, feijão, laranja, milho, soja, arroz, trigo, rebanho bovino e produção leiteira. A expansão da cana-de-açúcar impactou a área plantada de todas as atividades agropecuárias analisadas neste estudo. É possível inferir, com base nas informações coletadas e tratadas, que a produção canavieira tende a se expandir em áreas de pastagens. Observa-se que a expansão da área plantada de cana-de-açúcar no estado de São Paulo não reduziu a produção total das atividades agropecuárias estudadas. A tendência à mecanização da cana-de-açúcar pode colaborar para um zoneamento mais adequado das demais culturas em áreas impróprias à mecanização, diminuindo, assim, possíveis impactos na produção de alimentos. Deve-se considerar a dinâmica do setor agrícola ao longo de períodos longos, para que pequenos aumentos ou flutuações que ocorrem de maneira natural não sejam atribuídos a lavouras destinadas aos biocombustíveis. Na experiência do estado de São Paulo conseguiu-se observar que a questão é mais complexa do que se imaginava no início da proposta deste projeto. Os resultados analisados da possível coexistência entre a produção de biocombustíveis e alimentos não podem ser garantidos para outras regiões do Brasil. Empiricamente, é possível inferir que produzir biocombustíveis e alimentos não é antagônico e, sim, potencialmente aplicável no modelo agrícola brasileiro. No entanto, fica a sugestão de aprofundar esta proposta de estudo com utilização de modelos econométricos e estatísticos para a validação científica do estudo ora apresentado.