67 resultados para Teoria da computação
Resumo:
Este estudo trata da possibilidade de as empresas produtivas possuírem elementos característicos das organizações substantivas, tendo como perspectiva geral a construção de um ambiente organizacional integrativo, com base na teoria da ação comunicativa, de Jürgen Habermas e na noção de racionalidade substantiva, de Guerreiro Ramos. Apresenta, a partir dos trabalhos de Mary Parker Follett e de Araujo Santos, o conceito de ambiente organizacional integrativo, que sustenta a identidade de interesses entre trabalhadores e empresa e valoriza aspectos como a auto-realização, o autodesenvolvimento e a satisfação do ser humano, confrontando-o com a realidade do ambiente cultural brasileiro e sua influência nas práticas administrativas. Tendo como ponto de partida a pesquisa empreendida por Maurício Serva sobre o fenômeno das organizações substantivas, empreende, através de estudo de caso, um exame no cotidiano organizacional de uma empresa produtiva brasileira do ramo industrial, de modo a investigar a existência da ação racional substantiva nas suas diversas dinâmicas, processos e práticas administrativas, submetendo-a a uma avaliação com base em uma escala de intensidade da racionalidade substantiva e da racionalidade instrumental. Investiga ainda a possibilidade da existência de integração de interesses entre trabalhadores e empresa, caracterizando assim o ambiente organizacional integrativo.
Resumo:
A Teoria da Mente é uma área de estudo que investiga a compreensão da mente pelas crianças pequenas. Uma das questões centrais nesta investigação refere-se a quando a criança começa a entender a mente em sua dimensão metarrepresentativa. Neste estudo, examinou-se o status metarrepresentativo da brincadeira de faz-de-conta, considerada como uma das atividades que indicam a presença de uma teoria da mente, e a sua relação com o nível representativo apresentado nas tarefas de crença falsa e de aparência-realidade, e no emprego de termos mentais. Os dados foram obtidos através de testagem, entrevista e de uma sessão de observação, em que cada um dos sete participantes, com seis anos de idade, foi observado por vinte minutos. As crianças foram filmadas interagindo com colegas e brinquedos e suas falas gravadas, utilizando-se um microfone de lapela. Os resultados mostraram que todas as crianças do estudo resolveram as tarefas de crença falsa e de aparência-realidade, indicando a presença de uma teoria da mente e da capacidade de metarrepresentação. Quanto à brincadeira de faz-de-conta, houve predomínio de episódios categorisados como de brinquedo não-metarrepresentativo, apesar de seis crianças apresentarem episódios de faz-de-conta metarrepresentativo. Quanto ao uso de termos mentais, cinco crianças, em suas conversações, empregaram termos mentais considerados metarrepresentativos. Apesar das crianças apresentarem episódios de faz-de-conta metarrepresentativo, de resolverem corretamente as tarefas e de empregarem termos mentais que requerem metarrepresentação para serem compreendidos, não parece haver uma relação linear entre esses indicadores. Os resultados confirmam a hipótese de alguns autores de que a brincadeira de faz-de-conta metarrepresentativa ocorre mais tardiamente no desenvolvimento, estando estreitamente relacionada à compreensão da sintaxe do termo mental fazer de conta.
Resumo:
Materiais compósitos são empregados nos mais diversos tipos de estruturas (civis, mecânicas, aeronáuticas, etc.). A possibilidade de otimização de suas propriedades, frente às solicitações consideradas, representa uma grande vantagem na sua utilização. A teoria da homogeneização permite a avaliação da influência de detalhes microestruturais nas características do composto através do estudo de uma célula elementar. Os deslocamentos periódicos dessa célula são aproximados com expansões ortogonais polinomiais. A exatidão dos cálculos elásticos está associada ao grau dos polinômios utilizados. O procedimento numérico no modelo viscoelástico é incremental no tempo, utilizando-se de variáveis de estado, cuja implementação proporciona grande economia computacional, pois evita o cálculo de integrais hereditárias. A influência de diversos parâmetros físicos na constituição dos compósitos de fibras unidirecionais estudados é discutida e comparada com resultados obtidos com modelos em elementos finitos, tanto em elasticidade, quanto em viscoelasticidade sem envelhecimento. Para o caso de envelhecimento, no qual as características dos constituintes são variáveis com o tempo, é mostrada a resposta dos compósitos sob relaxação para diferentes instantes iniciais de carregamento em situações de "softening" (ou abrandamento) e "hardening" (ou endurecimento).
Resumo:
Devido à necessidade de permanecer competitiva e rentável, a indústriada construção civil tem mudado a forma de conduzir seus negócios e adaptado filosofias gerenciais para a suarealidade, como é o casodo Just-in-Time (JIT)e dos Sistemas da Oualidade (por exemplo: TOM e TOC). Dentro deste contexto, encontra-se a aplicação da Teoria das Restrições (TR) no processo de Planejamento e Controle da Produção (PCP) de obras de edificação. A Teoria das Restrições é uma filosofia gerencial fundamentada no conceito de restrição e em como gerenciar as restrições identificadas, fornecendo: (a) um procedimento para os responsáveis pela produção identificarem onde e como concentrar esforços e (b) um processo de melhoria contínua para o sistema produtivo como um todo, buscando sempre o ótimo globalantes do local. O desconhecimento dos possíveis benefícios e dificuldades decorrentes da adaptação e aplicação desta teoria na indústria da construção civil fez com que a aplicação da Teoria das Restrições fosse simulada, usando a técnica STROBOSCOPE (Stateand Resource Based Simulation of Construction Processes), em um empreendimento para analisar os impactos que prazos e custos podem sofrer durante as aplicações em casos reais. Estas simulações mostraram que a Teoria das Restrições e suas técnicas e ferramentas são aplicáveis ao processo de PCP, reduzindo os atrasos e os custos por atraso que um empreendimento pode sofrer.
Resumo:
Este trabalho visa abordar um aspecto de grande importância em um sistema de gestão empresarial – os indicadores que devem orientar a tomada de decisão na organização. Os indicadores podem cumprir duas funções administrativas: planejamento e controle. Por suas origens históricas, a ênfase no controle ainda prevalece sobre o planejamento. Porém, o ambiente competitivo dos dias atuais não permite atrasos na tomada de decisão gerencial. Portanto, se os indicadores auxiliarem na função de planejamento – orientando e permitindo inferir sobre possíveis consequências de uma ou outra decisão - estariam possibilitando ações mais focalizadas, com melhores resultados para a empresa. Diminuiriam, assim, eventuais correções no rumo da gestão. Consequentemente, diminuiria também o tempo necessário para o alcance dos resultados planejados. Esta dissertação buscou analisar os pr incipais modelos teóricos de sistemas de indicadores, explicitando quais os indicadores sugeridos e o modo como devem ser tratados. Realizou-se, também, uma pesquisa de campo em 20 empresas do Rio Grande do Sul, a fim de identificar os indicadores que estavam sendo efetivamente utilizados para a tomada de decisão, bem como problemas decorrentes do uso destes. Com isso, pôde-se confrontar os modelos teóricos e a prática atual das empresas pesquisadas, o que permitiu extrair as conclusões do trabalho. Além disso, permitiu verificar a correlação existente entre um uso eficiente de indicadores e o desempenho destas empresas, comparando-se com uma pesquisa realizada com este objetivo em empresas americanas. Como conclusão final, constatou-se a importância central dos indicadores em um sistema de gestão, constituindo uma base sólida na busca por um melhor desempenho empresarial.
Resumo:
Este trabalho tem por objetivo estudar a implantação dos princípios e técnicas da Manutenção Produtiva Total, Teoria das Restrições e Sistema Toyota de Produção em uma indústria metalúrgica visando aumentar a capacidade produtiva da linha de fabricação de panelas de aço inoxidável. O mesmo foi desenvolvido na Tramontina Farroupilha S.A. Após uma fundamentação teórica e a apresentação das características gerais da empresa, é proposto um método de implantação da Manutenção Produtiva Total em dez etapas, aplicado em equipamento gargalo e obtendo um aumento significativo de sua capacidade. As conclusões indicam a possibilidade de implantação deste método à esta atividade industrial bem como a sua utilização em outros ramos industriais, observadas as características específicas de cada organização.
Resumo:
O presente trabalho apresenta uma investigação sobre algumas operações categoriais baseadas em grafos e a aplicação das mesmas a uma área específica da Ciência da Computação, a saber, animações computacionais baseadas em autômatos finitos com saída. As operações categoriais estudadas neste trabalho são: Produto, Coproduto, Soma Amalgamada e Produto Fibrado. O modelo AGA (Animação Gráfica baseada em Autômatos finitos) foi o escolhido para ser utilizado como base desta dissertação. Inspirado nestes estudos, o trabalho contém uma proposta de como aplicar tais operações com o objetivo de definir animações aparentemente complexas, de forma simples, precisa e de fácil implementação. O enfoque está baseado em J. Stoy que diz que um dos objetivos para o uso da semântica formal de teoria das categorias é “sugerir meios ou formas para o projetista desenvolver sistemas melhores, mais elegantes (“limpos”) e com descrições formais mais simples”. Entretanto, não é objetivo deste trabalho verificar se a utilização destas operações é ou não melhor do que a utilização de qualquer outra solução para criar novas animações. Esta dissertação traz uma nova versão do modelo AGA, denominada AGANd (Animação Gráfica baseada em Autômatos finitos Não determinísticos), sendo que o AGA utiliza apenas autômatos finitos determinísticos para criar os atores de uma animação. Com a utilização do AGANd obtém-se animações mais realistas e mais flexíveis. A aplicação destas operações se dá nos dois modelos, os resultados obtidos a partir de cada uma das operações sobre os mesmos são apresentados de forma detalhada e ilustrados com os autômatos resultantes no decorrer do trabalho. É apresentada uma sugestão de implementação para cada uma das operações, visando estender o protótipo já implementado do modelo AGA. Isso faz com que o leitor seja estimulado a aplicar estas e outras operações categoriais em novas animações baseadas ou não nos modelos apresentados, despertando até mesmo para seu uso em outras áreas da Ciência da Computação.
Resumo:
Este trabalho tem por objetivo estudar a regularidade de soluções de Equações Diferenciais Parciais Elípticas da forma Lu = f, para f 2 Lp(), onde p > 1. Para isto, usamos a Decomposição de Calderon-Zygmund e um resultado que é consequência deste, o Teorema da Interpolação de Marcinkiewicz. Além disso, usando quocientes-diferença provamos a regularidade das soluções para o caso p = 2 e L = ¡¢ de uma forma alternativa.
Resumo:
Nosso trabalho discute a realização das fricativas /s/ e /z/ na borda direita de morfemas no português brasileiro, especialmente no dialeto gaúcho, à luz do modelo standard da Teoria da Otimidade. Os dados que consideramos referem-se principalmente a prefixos, no entanto, as afirmações feitas não se limitam apenas a essa fronteira morfológica, mas também às fronteiras de outros morfemas, inclusive a de palavras, estendendo-se a qualquer coda. Nossa proposta toma como base a hipótese de que a representação subjacente da fricativa é /z/. Dão conta da realização distinta dessa fricativa na superfície as restrições de marcação contextual *[s] [+cons + voz] e *voicedcoda e a restrição de fidelidade Ident-IO ranqueadas nessa ordem. A análise mostra que é possível observar esse aspecto da fonologia do PB pela Teoria da Otimidade standard.
Resumo:
Este trabalho propõe inicialmente uma abordagem sobre os conceitos de crédito e de risco de crédito. Posteriormente é realizada uma visão geral da evolução da análise do risco e de sua importância para o mercado, de como as normas bancárias interferem no racionamento do crédito e sua interface com a teoria da informação assimétrica. Tendo em vista que a informação assimétrica analisa os problemas tanto antes que o contrato seja negociado (seleção adversa) como após a contratação da operação (risco moral), conclui-se que o estudo do risco de crédito, comparado com a teoria da informação assimétrica, induz a possibilidade da premiação para clientes que paguem com pontualidade seus compromissos com as instituições financeiras. Esta possibilidade tem como objetivo a redução do atual patamar das taxas de juros. Neste caminho é questionado se o sistema de classificação de risco adotado pelas instituições financeiras pode ser uma boa base para a adoção da sistemática de premiação pelo pagamento pontual das operações dos clientes. Conclui-se que o sistema de classificação de risco não é uma boa base para a adoção da sistemática de premiação pelo pagamento pontual devido a conter numa mesma faixa de risco uma quantidade significativa de operações com diferentes “spreads”, taxas de juros, tipos de operações, garantias, prazos, clientes, financiadores, entre outros. Constata-se, também, que o risco de crédito faz parte de um problema cultural e que os bancos, para oferecerem um prêmio por pontualidade, irão ponderar, caso a caso, o custo do prêmio a ser pago versus o prejuízo causado pela inadimplência, diante da expectativa do retorno pretendido em cada operação.
Resumo:
Este trabalho tem como meta uma exposição sucinta sobre as relações entre economia e meio ambiente, que foram, durante muito tempo, ignoradas ou relegadas a um plano secundário pela grande maioria dos economistas. Essas relações passaram a ser melhor investigadas após os choques do petróleo na década de 70, que mudaram radicalmente o enfoque sobre o binômio economia-meio ambiente, contribuindo também para essa mudança os efeitos cada vez mais visíveis causados pela poluição desenfreada do planeta. Discute-se também sobre o conceito de desenvolvimento sustentável, bem como sobre sua evolução ao longo do tempo e as duas visões concorrentes sobre essa questão, além de abordar, resumidamente, a qualidade ambiental e os recursos naturais de propriedade comum como bens públicos. O trabalho também traça um paralelo entre os modelos de crescimento neoclássicos e os modelos de crescimento endógeno, no que se refere à incorporação de variáveis ambientais, como poluição, energia e recursos naturais. Como contribuição empírica para a conexão entre capital natural e crescimento econômico, procuramos estimar a relação entre estoque de terras, empregado como proxy para o capital natural, e o crescimento da renda per capita para as unidades federativas brasileiras, a partir de 1970, por meio de uma relação cúbica empregando dados de painel. Verificamos que, quando se consideram, para o cálculo do índice de expansão agrícola, os dados referentes à área agrícola utilizada, que é a soma da área agrícola permanente mais a área agrícola temporária, o modelo empregado é significativo e bem especificado. Neste caso, constatamos um padrão de “explosão e quebra” do processo de crescimento econômico associado à expansão da lavoura agrícola das unidades federativas brasileiras.
Resumo:
Neste trabalho, apresentamos uma solução analítica para as equações difusivas unidimensionais da Teoria Geral de Perturbação em uma placa heterogênea, isto é, apresentamos as soluções analíticas para os problemas de autovalor para o fluxo de nêutrons e para o fluxo adjunto de nêutrons, para o cálculo do fator de multiplicação efetivo (keff), para o problema de fonte fixa e para o problema de função auxiliar. Resolvemos todos os problemas mencionados aplicando a Transformada de Laplace em uma placa heterogênea considerando um modelo de dois grupos de energia e realizamos a inversão de Laplace do fluxo transformado analiticamente através da técnica da expansão de Heaviside. Conhecendo o fluxo de nêutrons, exceto pelas constantes de integração, aplicamos as condições de contorno e de interface e resolvemos as equações algébricas homogêneas para o fator de multiplicação efetivo pelo método da bissecção. Obtemos o fluxo de nêutrons através da avaliação das constantes de integração para uma potência prescrita. Exemplificamos a metodologia proposta para uma placa com duas regiões e comparamos os resultados obtidos com os existentes na literatura.
Resumo:
Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.
Resumo:
Este estudo visa a desvelar os elementos teóricos presentes no encontro de cuidado entre o enfermeiro e a criança doente hospitalizada, tendo como referencial teórico a Teoria Humanística de Enfermagem de Paterson e Zderad. Utilizou-se a pesquisa qualitativa com abordagem fenomenológica e a análise hermenêutica de Paul Ricoeur. O estudo desenvolveu-se no Hospital de Clínicas de Porto Alegre. O grupo de participantes do estudo foi composto por oito enfermeiras das unidades de internação e unidade de tratamento intensivo pediátricas (UTIP). Para coleta das informações foi utilizada a entrevista semi-estruturada proposta por Triviños. Na análise das informações e o desvelamento do fenômeno, elementos teóricos do encontro de cuidado ao Ser criança doente hospitalizada, utilizou-se a abordagem hermenêutica de Ricoeur e os passos proposto por Motta e Crossetti. Os elementos teóricos, emergidos do encontro de cuidado desvelaram os seguintes temas e subtemas: do tema SER CRIANÇA NO MUNDO DO CUIDADO emergiram os subtemas: o Ser criança como presença de cuidado; compartilhando experiências no adoecer e no cuidar; e aproximando o mundo do Ser criança ao mundo do hospital Do tema SER ENFERMEIRO NO ENCONTRO GENUÍNO emergiram os subtemas: percebendo o Ser criança doente hospitalizada; vivenciando sua existencialidade; cuidando em “com-unidade” com a família; aproximando-se da função materna; o “estar-com” na intersubjetividade do cuidado; compromisso autêntico e o ser cuidado; e o tema “NÓS”: SER ENFERMEIRO E SER CRIANÇA. O desvelar dos elementos teóricos apontam para diferentes maneiras de pensar o cuidar/cuidado ao Ser criança doente hospitalizada, e levam a um caminho do saber e fazer enfermagem, através do encontro genuíno e pela presença ativa de cuidado.
Resumo:
Por várias décadas os computadores têm sido utilizados no processo educacional e nem sempre da forma correta. E existe uma forma correta? Não existe consenso, são muitas as tentativas e experiências com inúmeros resultados positivos e negativos. Sabe-se de antemão que um dos fatores que levam ao fracasso alguns ensaios é a mera transposição do material didático tradicional para o meio informatizado, sem alterações na metodologia nem na postura do professor e do aluno. A questão é como a tecnologia pode ser utilizada para favorecer uma Aprendizagem Significativa. Para possibilitar esta pesquisa foi desenvolvido o Laboratório Virtual ASTERIX, utilizado na disciplina de Redes de Computadores do Curso de Ciências da Computação/UFSM. Esse trabalho apresenta os resultados da utilização do laboratório virtual ASTERIX, a metodologia de utilização dos recursos tecnológicos envolvidos (realidade virtual, inteligência artificial e animações/simulações) e avaliação da utilização desse laboratório virtual. A teoria educacional que fundamentou a criação e a utilização do laboratório virtual foi a Aprendizagem Significativa de D. Ausubel e D. Jonassen.