918 resultados para Ensino integrado de fundamentos matemáticos da ciência computação


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho defende de que a idéia que critérios lingüísticos e pragmáticos contribuem para o reconhecimento da especificidade do termo jurídico. Desse modo, parte do princípio que a identificação de uma terminologia está vinculada ao reconhecimento da natureza e dos propósitos daqueles que a utilizam em uma dada área de conhecimento, o que, na área jurídica, se torna evidente na expressão da normatividade da lei. A pesquisa utiliza como referencial teórico as concepções de base da Teoria Comunicativa da Terminologia, da Teoria dos Atos de Fala, aportes da Teoria Semiótica do Texto no âmbito jurídico, bem como fundamentos gerais da ciência jurídica. O corpus de estudo, a partir do qual se demonstra a validade da idéia defendida, é formado por textos legislativos. A Constituição Brasileira de 1988 foi escolhida como campo preferencial de pesquisa e é examinado como objeto da comunicação que se estabelece entre o destinador e o destinatário no âmbito do universo sócio-cultural da área jurídica. Descrevem-se os mecanismos que tecem a rede modal que estrutura esse tipo de texto, considerando-se que a enunciação da norma constitucional configura um ato de fala jurídico. Esse ato de fala é analisado na manifestação de normas de três categorias: programáticas, de atribuição de poder e competência e de conduta, destacando-se o caráter performativo dos verbos que expressam tais normas. Após a identificação do padrão morfossintático e semântico que caracteriza a sua estrutura frasal, analisam-se os elementos que vinculam o verbo, seu sujeito e complementos aos propósitos da área temática, com destaque para sua implicação pragmática. Conforme a pesquisa demonstra, tais propósitos imprimem o caráter de imperatividade àquilo que é comunicado, conferindo especificidade às unidades lexicais que integram a estrutura frasal dos verbos focalizados. Conclui-se que o verbo performativo é fator primordial no processo de atualização da especificidade dos termos na linguagem jurídica, bem como se demonstra que alguns dos verbos analisados se constituem em genuínos candidatos a termo jurídico. Finalizando a investigação, são indicados parâmetros para a marcação de elementos lingüísticos, tanto morfossintáticos como semânticos e de natureza pragmática, para o processamento informatizado da linguagem usada no Direito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A literatura disponível na área de controle de processos químicos tem dado pouca atenção para o problema da seleção de estruturas de controle, entretanto a correta escolha das variáveis controladas e manipuladas, assim como os seus pareamentos, é tão ou mesmo mais importante que o projeto do controlador propriamente dito, pois esta etapa define o desempenho alcançável para o sistema em malha fechada. Esta dissertação explora vários aspectos genéricos do controle de processos com o objetivo de introduzir os principais pontos da metodologia RPN, um método sistemático que, através de índices baseados em sólidos fundamentos matemáticos, permite avaliar o projeto de controle como um todo. O índice RPN (Número de Desempenho Robusto) indica quão potencialmente difícil é, para um dado sistema, alcançar o desempenho desejado. O produto final desse trabalho é o RPN-Toolbox, a implementação das rotinas da metodologia RPN em ambiente MATLAB® com o intuito de torná-la acessível a qualquer profissional da área de controle de processos. O RPN-Toolbox permite que todas as rotinas necessárias para proceder a análise RPN de controlabilidade sejam executadas através de comandos de linha ou utilizando uma interface gráfica. Além do desenvolvimento das rotinas para o toolbox, foi realizado um estudo do problema de controle denominado processo Tennessee-Eastman. Foi desenvolvida uma estrutura de controle para a unidade e esta foi comparada, de modo sistemático, através da metodologia RPN e de simulações dinâmicas, com outras soluções apresentadas na literatura. A partir do índice concluiu-se que a estrutura proposta é tão boa quanto a melhor das estruturas da literatura e a partir de simulações dinâmicas do processo frente a diversos distúrbios, a estrutura proposta foi a que apresentou melhores resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta a aplicação da transformada de ondaletas, como ferramenta de análise para o estudo de escoamentos turbulentos transientes e não homogêneos que podem ocorrer nas situações reais de engenharia, onde fenômenos transientes e não contínuos estão normalmente presentes. O estudo experimental da turbulência em túnel de vento habitualmente pressupõe que o escoamento seja estacionário; assim, fenômenos transientes são estudados como uma sucessão de situações estacionárias intermediárias. Isto é necessário porque a ferramenta clássica para o estudo experimental da turbulência, a análise de Fourier, só se aplica a fenômenos estacionários, pois seus resultados se referem a comportamentos de conjunto e as singularidades do sinal não aparecem na análise. Para estes escoamentos onde a transformada de Fourier não se aplica ou não apresenta resultados satisfatórios, a transformada de ondaletas, entre outras possibilidades, é a ferramenta matemática que vem sendo mais freqüentemente utilizada a partir da última década. São apresentados os fundamentos matemáticos, bem como uma breve história da transformada de ondaletas, da transformada de Fourier e da estatística aplicada á turbulência. Para estudar a transformada de ondaletas e buscar a melhor forma de aplicá-la ao estudo da turbulência, foram analisados três escoamentos distintos: na esteira de um cilindro, em turbulência homogênea e em um banco de tubos de configuração quadrangular. Os resultados experimentais foram obtidos por anemometria de fio quente. As medições foram feitas em um túnel de vento, partindo do repouso até atingir o regime permanente. Os dados experimentais obtidos foram analisados utilizando técnicas de ondaletas, usando várias ondaletas e várias transformadas de ondaletas diferentes. Os resultados são comparados entre si e com a transformada de Fourier. Também foram realizados ensaios em regime permanente para várias velocidades do escoamento entre o repouso e a velocidade nominal do ventilador, com o auxílio de um inversor de freqüência. Os resultados para a variação do número de Strouhal com a velocidade, obtidos da análise destes dados pela transformada de Fourier mostraram boa concordância com os obtidos da análise de ondaletas das aquisições transientes. Os resultados mostram que a transformada de ondaletas é uma ferramenta valiosa para a análise dos dados experimentais obtidos nos problemas investigados, qualificando e complementando a análise de Fourier onde esta se aplica e substituindo-a quando o fenômeno for não estacionário.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O conceito de parcialidade e importante em diversas áreas como a Matemática e a Ciência da Computação; ele pode ser utilizado, por exemplo, para expressar computações que não terminam e para definir funções recursivas parciais. Com rela cão a grafos, categorias de homomorfismos parciais são comuns (por exemplo, em gramáticas de grafos com a técnica de single-pushout). Este trabalho propõe uma abordagem diferente: a parcialidade é usada na estrutura interna dos objetos (não nos morfismos).Istoéfeito utilizando uma extensão do conceito de Categoria das Setas, chamada de Categoria das Setas Parciais. E definida entãoa categoria Grp de grafos parciais(tais que arcos podem possuir ou não vértices de origem e/ou destino) e homomorfismos totais.A generalização deste modelo resulta em categorias de grafos parciais internos.Émostrado que Grp é bicompleta e, se C é um topos, a categoria dos grafos parciais internos a C é cocompleta. Grafos parciais podem ser utilizados para definir modelos computacionais tais como autômatos. Uma categoria de Autômatos Parciais, denominada Autp, é construída a partir da categoria de Grafos Parciais. Usando uma extensão de composição de spans de grafos para autômatos, chamada de Composição de Transições, e possível definir as computações de autômatos. Brevemente, uma composição de transi cões de dois autômatos parciais resulta em um autômato parcial onde cada transição representa um caminho de tamanho dois (entre vértices), tal que a primeira metade é uma transição do primeiro autômato e a segunda metade é uma transição do segundo. É possível compor um autômato consigo mesmo diversas vezes; no caso de n sucessivas composições de transições, pode-se obter as palavras da linguagem aceita pelo autômato que necessitam de n+1 passos de computação nos arcos que não possuem origem e nem destino definidos do autômato parcial resultante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo desta pesquisa foi investigar as concepções dos futuros professores de Física sobre a natureza da ciência e sua evolução através de uma disciplina de História e Epistemologia da Física. A disciplina apresentou de forma explícita e em um ambiente de atividade colaborativa presencial e participativa as visões epistemológicas de alguns dos principais filósofos da ciência do século XX. O estudo compõe-se de quatro etapas distintas de análise, cada uma delas com identidade própria, uma vez que deram origem a quatro artigos independentes. A primeira etapa de análise descreve a forma de implementação e as estratégias de ensino utilizadas na disciplina e apresenta uma análise quantitativa complementar da evolução das concepções dos futuros professores de Física. A segunda etapa apresenta uma narrativa do cotidiano de sala de aula através de um estudo de caso tipo etnográfico que visou analisar as ações, falas, atividades, produções, opiniões, críticas e sugestões da perspectiva dos atores envolvidos. A terceira faz uma análise interpretativa das monografias produzidas pelos estudantes sobre as idéias epistemológicas estudadas ao longo da disciplina. A quarta etapa analisa as entrevistas realizadas com os estudantes alguns meses após o término da disciplina. Os resultados sugerem que houve uma evolução significativa das visões dos estudantes sobre a natureza da ciência e indicam a importância de algumas mudanças nas visões, no enfoque e na profundidade das discussões. Também sugere que o método colaborativo presencial e participativo contribui positivamente para tornar os futuros professores de Física mais reflexivos e críticos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Na última década muitos esforços têm sido feitos em verificação formal de propriedades de agentes do cálculo-π. Uma dessas propriedades é a equivalência observacional, que serve para determinar se um processo é equivalente a sua especificação. Contudo, a verificação de equivalência observacional não é um problema trivial. A maioria dos algoritmos destinados a verificação de equivalência são baseados na construção de sistemas de transições rotuladas (π-autômatos). O principal problema com essa abordagem é o grande número de estados envolvidos podendo chegar a um número infinito. Montanari e Pistore mostram que é possível gerar π-autômatos finitos para agentes-π e é possível reduzir a quantidade de estados desses π-autômatos, através da identificação dos nomes ativos. Um nome é semanticamente ativo em um agente se ele pode ser executado de forma observável por ele. Este é um trabalho de análise estática, que tem por objetivo coletar os possíveis nomes ativos contidos em expressões-π, utilizando para isso um sistema de tipos. A vantagem da utilização de sistemas de tipos em relação a outras formas de análise estática é que sistemas de tipos são sistemas lógicos, logo as técnicas de prova da lógica podem ser aproveitadas no estudo de propriedades de sistemas de tipos. Além disso sistemas de tipos são definidos através da estrutura sintática de expressões, facilitando assim as provas por indução estrutural. Assim a principal contribuição deste trabalho é a elaboração do Active-Base-π, um sistema de tipos para a coleta de nomes ativos de expressões-π.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem por objetivo o estudo do m~todo da Programação Linear e de sua aplicação no planejamento da empresa agricola, tendo em vista a demonstração de sua importancia como instrumento analItico no processo de tomada de decisões. Inicialmente ~ feita uma abordagem sobre a problematica da programação e seus fundamentos, sendo examinados os principais conceitos sobre os quais o assunto se baseia. A discussão encaminhada no sentido de chamar a atenção para o fato de que, em vista das pressões a que esta submetida a agricultura no estagio contemporâneo do desenvolvimento, - que lhe exigem melhores niveis de desempenho traduzidos em Indices mais elevados de produtividade, generalizou-se o consenso sobre a conveniência de se dar maior atenção i programação das atividades do setor agrIcola, tanto a nIvel de Região como no ambito de sua area empresarial. Entre os varias modelos gerados com o objetivo de oferecer respostas aos problemas de organização da produção, otimização de resuItados c racionalização do uso dos fatores, o da Programação Linear considerado o mais geralmente aceito pela comunidade cientIfica, por sua estrutura teórico sofisticada e pela capacidade de dar respostas exatas e diretas a questões de maior complexidade. A parte teórica do metodo da Programação Linear ~ examinada no Capítulo 11. De maneira sumária são abordados os seus fundamentos matemáticos e discutidos os principais teoremas sobre conjuntos convexos, corno elementos do espaço das soluções possiveis. A álgebra do algorÍtmo Simplex ~ abordada em sua forma ardinária, com a demonstração dos passos sucessivos do algoritmo, ato encontro do vertice característico da solução otima. No Capítulo 111 os conceitos teoricos da Programação Linear sao aplicados aos dados de uma empresa agricola, com a finalidade de demonstrar a operacionalização do algoritmo Simplcx ! através de programas de computador.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lógicas modais têm sido amplamente utilizadas em Ciência da Computação e inteligência artificial. Além disso, aplicações de lógicas modais na representação do conhecimento em sistemas distribuídos e, mais recentemente, em sistemas multiagentes, têm apresentado resultados promissores. No entanto, outros sistemas de prova para estas lógicas que não os sistemas axiomáticos à la Hilbert são raros na literatura. Este trabalho tem como objetivo principal preencher esta lacuna existente na literatura, ao propor um sistema de prova por dedução natural rotulada para lógicas do conhecimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A educação a distância tem passado por grandes transformações, principalmente após o advento da internet e das tecnologias de informação e comunicação (TICs). Inúmeras perguntas sobre qualidade e resultados de aprendizagem em ambientes virtuais foram geradas com o crescimento da modalidade. Pesquisadores têm investigado métodos de avaliação dos benefícios promovidos pelo e-learning sob um número diversificado de perspectivas. O objetivo desta pesquisa é avaliar o impacto dos construtos qualidade do sistema, qualidade da informação e qualidade do serviço na satisfação do aluno e no uso de Sistemas Virtuais de Aprendizagem em ambientes de e-learning, utilizando como base teórica o modelo de Sucesso de e-learning, adaptado do modelo de Delone e McLean por Holsapple e Lee-Post. A metodologia de pesquisa tipo survey foi administrada por meio de um curso on-line ofertado a 291 estudantes de instituições públicas e privadas de todas as regiões do Brasil. Para o tratamento e análise dos dados, utilizaram-se técnicas de modelagem de equações estruturais e análise fatorial confirmatória. Os resultados demonstram que o uso do sistema é impactado pela variação dos construtos qualidade do sistema, qualidade da informação e qualidade dos serviços, já a satisfação do aluno é antecedida pela qualidade percebida da informação e do serviço. Muitos dos benefícios gerados pela educação a distância são causados pela satisfação do aluno e pela intensidade com que este utiliza o sistema de aprendizagem. Ao identificar os indicadores que antecedem estas variáveis, os gestores educacionais podem planejar seus investimentos visando atender às demandas mais importantes, além de utilizar a informação para lidar com um dos maiores problemas em EaD: a evasão.