19 resultados para Busca da informação - Modelos
em Repositório da Universidade Federal do Espírito Santo (UFES), Brazil
Resumo:
A integração de tecnologias de informação e comunicação no contexto educacional tem sido tema de diversos congressos e simpósios ao redor do mundo e no Brasil. Neste sentido, vários estudos têm sido realizados com o objetivo de se obter metodologias que tornem efetivo o emprego das novas tecnologias no ensino. Este artigo mostra um estudo que investigou a interação entre estudantes universitários da área de ciências exatas e um ambiente de modelagem computacional qualitativo em atividades de modelagem expressiva. Os resultados obtidos mostram que os estudantes foram capazes de criar e modificar o modelo do sistema proposto a partir de suas próprias concepções.
Resumo:
A partir da década de 1970, a literatura que trata daqueles setores de infraestrutura, cujo funcionamento requer um acompanhamento específico do Estado, vale dizer através da regulação, absorveu grande parte dos conceitos fundamentais desenvolvidos pelas escolas institucionalistas, notadamente pela Nova Economia Institucional (NEI). Entretanto, apesar dos avanços alcançados, esta literatura ainda carece de alguns desenvolvimentos teóricos e estudos empíricos que contribuam de forma decisiva. Tais questões estão ligadas, por exemplo, à evolução dos cenários e às condições econômicas que são alteradas a partir de mudanças significativas nas condições tecnológicas e que acabam por alterar significativamente aquela estrutura industrial para qual o modelo regulatório foi desenhado. Nesse sentido, as contribuições da Economia da Regulação e da NEI carecem de elementos evolucionários, notadamente schumpeterianos. O principal objetivo da dissertação é investigar como alguns elementos de inspiração schumpeteriana podem em algum grau ser aplicados à economia da regulação e neste sentido contribuir com proposições naqueles temas que essa escola fincou sua abordagem característica: o progresso tecnológico e o comportamento estratégico inovativo das empresas. Nesse sentido, o problema de pesquisa desse trabalho pode ser assim colocado: como pode ser entendido o papel do progresso tecnológico e da inovação nas teorias da regulação? A hipótese assumida neste trabalho é que não se pode desconsiderar a tecnologia e suas diversas implicações para a análise dos setores regulados, constatação essa cada vez mais clara, dadas as recentes transformações dessas indústrias: uma das principais características dos setores regulados, a partir da década de 1990, é o surgimento de novos marcos regulatórios e uma alteração progressiva dos modelos organizacionais que predominavam até então e um movimento de adaptação à margem da regulação vigente. Os resultados empíricos mostram que as transformações tecnológicas e institucionais ocorridas a partir de 1995 na indústria brasileira de telecomunicações alteraram significativamente a estrutura industrial e a dinâmica concorrencial do setor, colocando ao desenho regulatório – da Anatel – novos e complexos desafios, sobretudo, o de se adaptar à margem da dinamicidade característica das telecomunicações. Neste novo contexto, as funções regulatórias são mais complexas, o que exige um duplo processo de aprendizagem: quanto às estruturas de mercado e quanto ao comportamento estratégico das empresas.
Resumo:
Este trabalho investiga, no mercado acionário brasileiro, o efeito da contabilidade de hedge na qualidade das informações contábeis divulgadas, no disclosure dos instrumentos financeiros derivativos e na assimetria de informação. Para medir a qualidade da informação contábil, foram utilizadas as métricas de relevância da informação contábil e informatividade dos lucros contábeis. Para a execução deste trabalho, foi constituída uma amostra geral com empresas brasileiras, não financeiras, listadas na Bolsa de Valores de São Paulo, compreendendo as 150 empresas com maior valor de mercado em 01/01/2014. A partir da amostra geral, foram constituídas amostras para a aplicação dos modelos de value relevance, informativeness, disclosure e assimetria de informação. A amostra para relevância contou com 758 observações firmas-anos, para o período de 2008 a 2013. A amostra para informatividade contou com 701 observações firmas-anos, para o período de 2008 a 2013. A amostra para disclosure contou com 100 observações firmas-anos, para o período de 2011 a 2012. A amostra para assimetria de informação contou com 100 observações firmas-anos, para o período de 2011 a 2012. Para as análises dos dados, utilizou-se regressões com errospadrão robustos com abordagem POLS e Efeitos Fixos, aplicadas sobre dados em painel. Complementarmente, para as análises do efeito do hedge accounting sobre o disclosure e assimetria de informação, foi aplicado o método de Propensity Score Matching. As evidências encontradas para a influência da contabilidade de hedge na relevância da informação contábil apontaram uma relação positiva e significante na interação com o LL. Na análise da informatividade dos lucros contábeis, a pesquisa evidenciou uma relação negativa e estatisticamente significante do lucro quando interagido com a variável dummy de hedge accounting. Quanto às evidências encontradas para a influência do hedge accounting sobre o disclosure dos derivativos, verificou-se uma relação positiva e estatisticamente significante da dummy de hedge accounting com o indicador de evidenciação dos derivativos. Em relação às evidências para a assimetria de informação, embora os coeficientes se mostrassem no sentido esperado, os mesmos não foram estatisticamente significativos. Adicionalmente, incorporamse às análises econométricas uma análise descritiva, na amostra geral, da utilização do hedge accounting no Brasil, para o ano de 2013. Dentre as 150 empresas da amostra, 49 empresas utilizaram hedge accounting, onde 41 empresas adotam apenas 1 tipo de hedge. O hedge de fluxo de caixa é o tipo de hedge mais adotado pelas empresas, sendo utilizado por 42 companhias.
Resumo:
A distribuição geográfica de um táxon é limitada por aspectos ecológicos e históricos. Muitas atividades humanas têm causado modificações na cobertura vegetal, o que leva à fragmentação e perda do habitat. Isso tem levado à extinção local de populações de várias espécies, alterando sua distribuição geográfica. Entre elas estão as duas espécies do gênero Brachyteles (os muriquis), que são primatas endêmicos de um dos biomas mais afetados por esses processos, a Mata Atlântica. A União Internacional para a Conservação da Natureza (UICN) é uma organização que busca conservar a biodiversidade. Entre outros critérios, utiliza o conhecimento sobre as distribuições geográficas restritas das espécies para classificá-las em categorias de ameaça de extinção, nas chamadas listas vermelhas. Para isso, utiliza parâmetros espaciais, cujos resultados indicam o risco de extinção de determinado táxon em relação à sua distribuição geográfica. Muitas vezes os cálculos desses parâmetros são realizados de maneira subjetiva, de maneira que é importante a busca de métodos que tornem as classificações mais objetivas, precisas e replicáveis. Nesse contexto, o presente trabalho testou diferentes métodos de cálculos de três parâmetros relacionados à distribuição geográfica de B. hypoxanthus e B. arachnoides. Tratam-se de espécies ameaçadas de extinção, com localidades de ocorrência bem conhecidas, que foram profundamente afetadas pela degradação da Mata Atlântica. Assim, podem ser consideradas bons modelos para essas análises. Foi construído um banco de dados de localidades de ocorrência atuais das duas espécies. Por meio de abordagens de Sistemas de Informação Geográfica (SIG), foram estimadas a Extensão de Ocorrência (EOO) através de Mínimo Polígono Convexo e α-hull e Área de Ocupação (AOO) e Subpopulações por meio de métodos de grids, buffers circulares e α-hull, em diferentes escalas espaciais. Os resultados dos cálculos desses parâmetros foram comparados para identificar as abordagens e escalas mais adequadas para a avaliação de risco de extinção. Esses resultados indicam que as listas de localidades e os mapas de distribuição disponibilizados pela UICN precisam ser atualizados. Além disso, sugerem que α-hull é uma abordagem vantajosa para EOO e o método de buffers é mais adequado para os parâmetros de AOO e Subpopulações, quando utiliza escalas espaciais menores. Também foi utilizada a ferramenta GeoCAT, para as duas espécies. Essa ferramenta, por realizar análises de EOO e AOO instantâneas e por seus resultados serem semelhantes aos de outras análises, serve como uma abordagem preliminar de risco de extinção baseado no critério de distribuição geográfica.
Resumo:
Este trabalho tem por objetivo discutir o surgimento de um programa de pesquisa na Ciência Econômica, no que concerne a análise das assimetrias de informação, as diferenças epistemológicas e as implicações em termos de equilíbrio ótimo de Pareto, em contraponto à abordagem neoclássica standard. Em busca de tal objetivo, foi necessário destacar o método de ambos os paradigmas; todavia, era igualmente necessário discutir a filosofia/epistemologia da ciência envolvida e que serviria de base para uma abordagem relacionada a mudanças paradigmáticas na ciência. No capítulo 1, discutimos a epistemologia da ciência, a partir de três autores: Popper, Kuhn e Lakatos. Definimos o conjunto de hipóteses que podem ser associadas ao método empregado pela Escola Neoclássica, a partir da filosofia da ciência proposta por Lakatos. Em seguida, no capítulo 2, fizemos uma longa exposição do método neoclássico, definindo os axiomas inerentes às preferências bem-comportadas, apresentando algebricamente o equilíbrio geral walrasiano, exemplificando o relaxamento de hipóteses auxiliares do modelo neoclássico a partir de Friedman e, por fim, aplicando o instrumental neoclássico ao relaxamento da hipótese auxiliar de perfeição da informação, a partir do modelo desenvolvido por Grossman & Stiglitz (1976), bem como da expansão matemática desenvolvida pelo presente trabalho. Finalmente, encerramos a presente dissertação com o capítulo 3, no qual, basicamente, expomos as principais contribuições de autores como Stiglitz, Akerlof e Arrow, no que concerne a mercados permeados por informações assimétricas e comportamentos oportunistas. Procuramos mostrar as consequências para o próprio mercado, chegando a resultados em que o mesmo era extinto. Apresentamos a segunda parte do modelo de Grossman & Stiglitz, enfatizando a natureza imperfeita do sistema de preços, sua incapacidade de transmitir todas as informações sobre os bens ao conjunto dos agentes, e, por fim, discutimos tópicos variados ligados à Economia da Informação.
Resumo:
Esta dissertação foi desenvolvida com o objetivo de investigar os efeitos da instalação e das características do Conselho Fiscal e do Comitê de Auditoria sobre a qualidade das informações contábeis no Brasil. As características estudadas foram à independência e a qualificação dos membros. As proxies da qualidade da informação contábil foram relevância, tempestividade e conservadorismo condicional. A amostra utilizada foi composta por empresas brasileiras, listadas na Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBovespa), com liquidez anual superior a 0,001, no período de 2010 a 2013. Os dados foram coletados na base de dados Comdinheiro e nos Formulários de Referência das empresas, disponíveis no sítio eletrônico da Comissão de Valores Mobiliários (CVM) ou BM&FBovespa. Os modelos de qualidade da informação foram adaptados ao recorte metodológico e estimados pelo método dos mínimos quadrados ordinários (MQO), com erros-padrão robustos clusterizados por firma. Os resultados revelaram efeitos da instalação dos órgãos analisados sobre as proxies de qualidade da informação contábil. A instalação do Conselho Fiscal impactou positivamente a relevância do patrimônio líquido, enquanto a instalação do Comitê de Auditoria, a relevância do lucro. Esses resultados podem indicar diferenças no direcionamento da atenção desses órgãos: em proteger o patrimônio da entidade para os acionistas (Conselho Fiscal) ou em assegurar números mais confiáveis sobre o desempenho dos administradores (Comitê de Auditoria). Paralelamente, os resultados para a instalação do Conselho Fiscal de forma permanente inferiu força desse órgão como mecanismo de controle, ao invés da instalação somente a pedido dos acionistas. Já, a implementação do Conselho Fiscal Turbinado se mostrou ineficiente no controle da qualidade das informações contábeis. Na análise das características, a independência dos membros do Comitê de Auditoria impactou a relevância do lucro. Ao passo que a independência do Conselho Fiscal impactou a relevância do patrimônio líquido e o conservadorismo condicional (reconhecimento oportuno de perdas econômicas). Essas associações foram mais significantes quando os membros do Conselho Fiscal eram independentes dos acionistas controladores. Na análise da qualificação dos membros, foram encontradas evidências positivas na relação entre a relevância do patrimônio líquido e a maior proporção de membros do Conselho Fiscal com qualificação em Business (Contabilidade, Administração e Economia). O conservadorismo condicional foi maior na medida em que a qualificação dos membros do Conselho Fiscal convergia para a Contabilidade. Os resultados da qualificação dos membros do Comitê de Auditoria demonstraram relevância do lucro na presença de, ao menos, um Contador e na maior proporção de membros com qualificação tanto em Contabilidade como em Business; sendo mais significante conforme a qualificação dos membros do Comitê de Auditoria convergia para a Contabilidade.
Resumo:
Esta dissertação busca identificar se os diferentes Estágios de Ciclo de Vida (ECVs) estão relacionados com a qualidade da informação contábil nas empresas brasileiras. Segundo pesquisas internacionais, os diferentes ECVs influenciam a qualidade da informação contábil. Aqui, foram empregadas as métricas de relevância, tempestividade e conservadorismo, de maneira semelhante às utilizadas por Lopes (2009) para verificar a qualidade da informação contábil. Para identificar os Estágios de Ciclo de Vida, foi utilizada a forma de identificação orgânica elaborada por Dickinson (2011), fundamentada nos sinais dos fluxos de caixa da empresa. A amostra deste trabalho é composta por empresas brasileiras que negociaram ações na BM&FBovespa, no período de 2008 à 2013, sendo excluídas as empresas do setor financeiro. O total de empresas que compõem a amostra é de 330, sendo 1.163 observações para o modelo de relevância, 1.163 para o modelo de tempestividade e 1.167 observações para o modelo de conservadorismo. Para verificar os efeitos dos ECVs na qualidade da informação contábil foram utilizados dados em painel desbalanceado e regressões robustas, com a correção de White, identificando os ECVs através de dummies. Os resultados encontrados indicam que os ECVs afetam a qualidade da informação contábil e que nos estágios de Crescimento e Maturidade as informações contábeis apresentam maior relevância e tempestividade. Não foi possível identificar os efeitos dos diferentes ECVs no conservadorismo, pois as variáveis de interesse não foram estatisticamente significantes.
Resumo:
Denise Meyrelles de Jesus, Claudio Roberto Baptista, Sonia Lopes Victor, organizadores.
Resumo:
Orlikowski e Barley (2001) apontam a importância da pesquisa em TI sob a ótica dos Estudos Organizacionais, principalmente quando é utilizada a análise neoinstitucional, porque dessa forma há uma compreensão mais sistêmica sobre como a tecnologia está entrelaçada nas complexas redes interdependentes, sociais, econômicas e políticas. O estudo de caso ocorreu em um órgão do judiciário, onde foram obtidos dados por meio de entrevistas, que foram triangulados com uma pesquisa documental. A dissertação busca elucidar como pressões isomórficas podem influenciar estruturas e processos de TI recomendados pela legislação em vigor, de forma a contribuir para gestores de organizações públicas durante a definição de prioridades para a TI. Para analisar o estágio institucional utilizou-se a classificação proposta por Tolbert e Zucker (1996) e como resultado, apesar das pressões isomórficas coercitivas, obteve-se que poucas estruturas e processos se institucionalizaram totalmente e, aparentemente, só aquelas que traziam com si outros tipos de pressões isomórficas é que parecem ter maior chance de chegar ao último estágio institucional. Foi constatada que a organização, durante o processo de institucionalização, pode incorrer em novas falhas, gerando mitos burocráticos e ritos cerimoniais que por exemplo, podem causar maior descolamento da preocupação por efetividade em seus resultados. Para determinados problemas, apontados durante as entrevistas, não foi possível encontrar influência de nenhuma pressão isomórfica. Tal fato sugere que a teoria neoinstitucional não conseguiu explicar todo o cenário da organização.
Resumo:
O número de municípios infestados pelo Aedes aegypti no Estado do Espírito Santo vem aumentando gradativamente, levando a altas taxas de incidência de dengue ao longo dos anos. Apesar das tentativas de combate à doença, esta se tornou uma das maiores preocupações na saúde pública do Estado. Este estudo se propõe a descrever a dinâmica da expansão da doença no Estado a partir da associação entre variáveis ambientais e populacionais, utilizando dados operacionalizados por meio de técnicas de geoprocessamento. O estudo utilizou como fonte de dados a infestação pelo mosquito vetor e o coeficiente de incidência da doença, as distâncias rodoviárias intermunicipais do Estado, a altitude dos municípios e as variáveis geoclimáticas (temperatura e suficiência de água), incorporadas a uma ferramenta operacional, as Unidades Naturais do Espírito Santo (UNES), representadas em um único mapa operacionalizado em Sistema de Informação Geográfica (SIG), obtido a partir do Sistema Integrado de Bases Georreferenciadas do Estado do Espírito Santo. Para análise dos dados, foi realizada a Regressão de Poisson para os dados de incidência de dengue e Regressão Logística para os de infestação pelo vetor. Em seguida, os dados de infestação pelo mosquito e incidência de dengue foram georreferenciados, utilizando como ferramenta operacional o SIG ArcGIS versão 9.2. Observou-se que a pluviosidade é um fator que contribui para o surgimento de mosquito em áreas não infestadas. Altas temperaturas contribuem para um alto coeficiente de incidência de dengue nos municípios capixabas. A variável distância em relação a municípios populosos é um fator de proteção para a incidência da doença. A grande variabilidade encontrada nos dados, que não é explicada pelas variáveis utilizadas no modelo para incidência da doença, reforça a premissa de que a dengue é condicionada pela interação dinâmica entre muitas variáveis que o estudo não abordou. A espacialização dos dados de infestação pelo mosquito e incidência de dengue e as Zonas Naturais do ES permitiu a visualização da influência das variáveis estatisticamente significantes nos modelos utilizados no padrão da introdução e disseminação da doença no Estado.
Resumo:
O presente trabalho tem por objetivo avaliar o Portal do Aluno da Universidade Federal do Espírito Santo, identificando fatores associados à usabilidade que afetam a percepção de qualidade da informação e diferenciando grupos de usuários em função da usabilidade do Portal. Para tanto, foi realizado um levantamento por meio de um questionário aplicado aos usuários, com abordagem predominantemente quantitativa. Foi descrito o perfil dos alunos, o contexto em que utilizam o Portal e qual avaliação fazem dos relatórios e atividades. A partir do modelo elaborado no estudo, no qual a usabilidade contou com seis dimensões (facilidade de aprendizado, facilidade de memorização, eficiência, satisfação, suporte a erros e utilidade), constatou-se que, com exceção da facilidade de aprendizado, as demais dimensões possuem significância estatística na percepção da qualidade da informação, sendo a mais influente a dimensão satisfação. Por meio da análise de conglomerados, foram identificados três grupos, com base nas avaliações dos fatores associados ao atendimento de suas expectativas e aos resultados do uso do portal (satisfação, eficiência e utilidade): o primeiro grupo composto por alunos que avaliaram melhor estes fatores bem como as atividades, os relatórios e a qualidade da informação do Portal; o segundo que avaliaram medianamente; e o terceiro que avaliaram pior. Através da regressão simples utilizando a média das dimensões de usabilidade, verificou-se também que a qualidade da informação está fortemente correlacionada (r=0,7) com a usabilidade do Portal, tendo um poder de predição de 49%. Também foram obtidas respostas acerca do que era mais confuso e sugestões de melhorias que ajudaram a formular, conjuntamente com as demais análises, as propostas do Plano de Intervenção. Embora ainda apresente deficiências, em uma escala de 0 a 5, o Portal foi avaliado acima da média na dimensão satisfação (3,42), bem como obteve média geral de qualidade da informação de 3,31 e de usabilidade de 3,69 . Desta forma, pode-se dizer que ele tem cumprido sua função.
Resumo:
A administração desde seu início desenvolveu vários modelos de gestão a fim de obter eficiência. Treinar, capacitar e desenvolver o pessoal esteve na maioria desses modelos como algo imprescindível para se alcançar os resultados desejados. O governo que há vários anos busca um serviço público profissional e de qualidade publicou o decreto n. 5.707/2006 que regulamenta o desenvolvimento de pessoal da administração pública autárquica e fundacional. Neste decreto ele institui que o desenvolvimento de servidores deverá seguir o modelo de Gestão por Competências. Este trabalho trata de verificar a possibilidade da implantação desse novo modelo de gestão para confeccionar o programa de capacitação dos servidores técnicos administrativos em educação da Universidade Federal do Espírito Santo (UFES) elaborando uma proposta de projeto. Nesse sentido, faz-se uma revisão dos conceitos de treinamento, capacitação, desenvolvimento, competências e gestão por competências e através de seus constructos levanta-se a viabilidade de implantação de um programa de capacitação que inter-relacione as exigências do cargo com as habilidades e competências apresentadas ou não pelo servidor e o conteúdo dos treinamentos e cursos oferecidos pelo Departamento de Desenvolvimento de Pessoas da UFES.
Resumo:
A busca pela melhoria da qualidade de vida e a procura por alimentos naturais e funcionais são crescentes. A incorporação de prebióticos e corantes naturais pode agregar valor ao produto, por serem capazes de melhorar sua qualidade e por apresentarem grandes atrativos tecnológicos. Portanto, o objetivo deste trabalho foi avaliar o efeito da adição de prebióticos (inulina e oligofrutose) e corante natural (extrato de casca de jabuticaba) nas características de queijo petit suisse. Foi realizada análise da composição físico-química (extrato seco total, cinzas, proteínas, lipídeos, carboidratos e acidez titulável) logo após o processamento, análise do pH, colorimetria, teor de compostos bioativos e atividade antioxidante em diferentes tempos de armazenamento (0, 7, 14, 21 e 28 dias), análise do teor de fibras alimentares da formulação de queijo petit suisse com maior atividade antioxidante ao final da vida de prateleira e análises microbiológica e sensorial. O queijo petit suisse elaborado foi dividido em cinco formulações, de acordo com a concentração de corante natural incorporado, que foram 0%, 1,5%, 2,0%, 2,5% e 3,0%. Os dados obtidos com as análises realizadas logo após o processamento e análise sensorial foram submetidos à análise de variância e teste de Tukey, os dados obtidos com as análises realizadas em diferentes tempos de armazenamento foram submetidos à análise de variância e estudo do comportamento cinético, e a análise de fibras e microbiológica foi analisada por meio de estatística descritiva. Os valores de extrato seco total, proteínas, lipídeos, cinzas e carboidrato não diferiram significativamente (p>0,05) entre as formulações. A formulação sem adição de corante natural apresentou menor acidez (p≤0,05), e com o aumento da concentração de corante natural, maior foi a acidez do queijo. Os teores de antocianinas, fenólicos totais e capacidade antioxidante foram maiores com o aumento da concentração de corante incorporado, sendo que o teor de antocianinas reduziu com o decorrer do tempo de armazenamento. O valor encontrado de fibras para a formulação contendo 3,0% de corante natural foi baixo, e o produto não apresentou alegação de propriedade funcional. A fim de verificar se o queijo estava próprio para o consumo, foi realizada análise microbiológica para coliformes termotolerantes, estando todas as formulações de queijo petit suisse em condições sanitárias satisfatórias. A análise sensorial foi realizada em duas etapas. Na primeira etapa foi realizado teste de aceitação com avaliação dos atributos cor, sabor, consistência e impressão global, e intenção de compra para todas as formulações com incorporação de corante natural. Na segunda etapa foi realizado o teste de aceitação com informação nutricional do produto para a amostra mais aceita na primeira etapa. Como resultado, foi observado que o atributo cor foi o único que apresentou diferença significativa (p≤0,05) entre as formulações, sendo as mais aceitas com concentração 2,5% e 3,0%. De forma geral, todas as formulações foram bem aceitas, porém, a formulação com maior adição de corante natural foi a que xiii apresentou maiores notas. Assim, o queijo com maior concentração de corante natural foi o utilizado na segunda etapa sensorial, sendo observada influência das informações nos atributos cor e consistência (p≤0,05). Dessa forma, a utilização de prebióticos e corante natural de casca de jabuticaba em queijo petit suisse foi viável por não alterar a composição centesimal do produto, além de conferir ao produto uma coloração atrativa.
Resumo:
Esta tese se propôs investigar a lógica inferencial das ações e suas significações em situações que mobilizam as noções de composição probabilística e acaso, bem como o papel dos modelos de significação no funcionamento cognitivo de adultos. Participaram 12 estudantes adultos jovens da classe popular, voluntários, de ambos os sexos, de um curso técnico integrado ao Ensino Médio da Educação de Jovens e Adultos. Foram realizados três encontros, individualmente, com registro em áudio e planilha eletrônica, utilizando-se dois jogos, o Likid Gaz e o Lucky Cassino, do software Missão Cognição (Haddad-Zubel, Pinkas & Pécaut, 2006), e o jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012). Os procedimentos da tarefa foram adaptados de Silva e Frezza (2011): 1) apresentação do jogo; 2) execução do jogo; 3) entrevista semiestruturada; 4) aplicação de três situações-problema com intervenção segundo o Método Clínico; 5) nova partida do jogo; e 6) realização de outras duas situações-problema sem intervenção do Método Clínico. Elaboraram-se níveis de análise heurística, compreensão dos jogos e modelos de significação a partir da identificação de particularidades de procedimentos e significações nos jogos. O primeiro estudo examinou as implicações dos modelos de significação e representações prévias no pensamento do adulto, considerando que o sujeito organiza suas representações ou esquemas prévios relativos a um objeto na forma de modelos de significação em função do grau de complexidade e novidade da tarefa e de sua estrutura lógico matemática, que evoluem por meio do processo de equilibração; para o que precisa da demanda a significar esse aspecto da 13 realidade. O segundo estudo investigou a noção de combinação deduzível evidenciada no jogo Likid Gaz, identificando o papel dos modelos de significação na escolha dos procedimentos, implicando na rejeição de condutas de sistematização ou enumeração. Houve predominância dos níveis iniciais de análise heurística do jogo. O terceiro estudo examinou a noção de probabilidade observada no jogo Lucky Cassino, no qual a maioria dos participantes teve um nível de compreensão do jogo intermediário, com maior diversidade de modelos de significação em relação aos outros jogos, embora com predominância dos mais elementares. A síntese das noções de combinação, probabilidade e acaso foi explorada no quarto estudo pelo jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012), identificando-se que uma limitação para adequada compreensão das ligações imbricadas nessas noções é a implicação significante – se aleatório A, então indeterminado D (notação A D), com construção de pseudonecessidades e pseudo-obrigações ou mesmo necessidades locais, generalizadas inapropriadamente. A resistência ou obstáculos do objeto deveria provocar perturbações, mas a estrutura cognitiva, o ambiente social e os modelos culturais, e a afetividade podem interferir nesse processo.
Resumo:
Um sistema de informação para o monitoramento e diagnóstico de desempenho de centrais termelétricas é uma ferramenta capaz de auxiliar no gerenciamento das atividades de manutenção. Portanto, esta dissertação tem por objetivo desenvolver um sistema de informação para o monitoramento e diagnóstico de desempenho termodinâmico em uma central termelétrica equipada com motores de combustão interna, sistema este capaz de ser implementado em uma aplicação em ambiente MS Windows. Neste trabalho, a condição de referência é estabelecida nas condições ISO com base em testes realizados na planta em operação, além de informações técnicas adicionais. Consequentemente, para o diagnóstico, o estado real é corrigido para a condição ISO. Mesmo assim, além do estado de referência definido, para maior confiabilidade dos resultados foi considerada outra base de comparação em função das informações do fabricante. Além disso, como a central termelétrica possui 20 unidades motogeradoras iguais, o sistema de informação desenvolvido mostrou-se prático comparar os parâmetros operacionais entre duas unidades quaisquer, visando uma análise independente da qualidade do modelo de referência.