299 resultados para Compatibilidade
Resumo:
o presente trabalho averigua os modelos estratégicos atuais e, sua aplicabilidade nas pequenas empresas no que tange à viabilidade financeira de projetos dirigidos a esse assunto. Procurou-se desenvolver a pesquisa com o objetivo de investigar a influência e a operacionalidade dos modelos correntes de estratégia, na liquidez das pequenas empresas, de modo a transformar os dados destas analises financeiras básicas em ferramentas estratégicas de minimização de risco. O método utilizado para o estudo foi o da exploração de literatura de planejamento estratégico e análise financeira de tomada de decisão. Aplicação da teoria foi verificada em uma amostra não generalística e préestabelecida pelo autor, através de um questionário objetivo. As perguntas constantes neste questionário contemplaram a verificação do nível dos conceitos estratégicos presentes nas empresas, suas condições atuais perante a perspectiva financeira e a disponibilidade da aplicação dos conceitos em projetos de planejamento estratégico. Os resultados revelaram a presença de vários conceitos e diretrizes teóricas; porém na averiguação da condição financeira, as empresas pesquisadas apresentaram, através de notas, estado de li qui dez enxuto e com pouca margem de folga para investimentos na área estratégica. O contraponto da pesquisa foi dado pelo modo que como as empresas estão sendo obrigadas a esta análise, por mais que haja conhecimento do assunto, estes critérios não estão sendo utilizados, fato observado na terceira seção do questionário. As conclusões demonstraram que as pequenas empresas pesquisadas oferecem condições de desenvolvimentos estratégicos na forma de adaptações. A teoria informou que isto também constitui um procedimento válido. Porém os conceitos dessas adaptações devem ser avaliados perante a perspectiva da viabilidade financeira e de composição dos custos de capital a ser aplicado. Isto estabelece, além da implantação do início da adaptação estratégica, o uso de ferramentas financeiras básicas e de critérios de análise de risco, sendo esses fatos extremamente compatíveis com o tamanho das empresas e com os preceitos estratégicos. Assim, a hipótese estipula pelo trabalho apresentou compatibilidade com a pesquisa visto que, a teoria corrente demonstrou não ser viável para os gestores, ou ainda, ser aplicada para os casos em estudo. O texto e a pesquisa demonstram isto de modo que, para o caso das pequenas empresas a solução é a adaptação estratégica com estudo de viabilidade e, não a aceitação completa dos modelos propostos normalmente.
Resumo:
o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.
Resumo:
Esta pesquisa, de caráter exploratório, visou identificar os fatores que influenciam a utilização da tecnologia da informação (TI) em uma instituição de ensino superior, na visão de seus alunos, professores e funcionários. A coleta de dados foi realizada através da aplicação de uma pesquisa survey, com um conjunto de perguntas fechadas e abertas, que resultou em oitocentos e trinta e sete questionários respondidos. Os resultados indicaram diversos fatores que influenciam diretamente a utilização da TI e outros que moderam essa utilização. O fator expectativa de performance influencia positivamente o uso da TI, ou seja, quanto maior a expectativa do usuário de que o uso da TI impacte em melhorias e facilidades na realização de seu trabalho, maior é o uso. O fator expectativa de esforço também influencia o uso da TI, sendo que este é maior entre os indivíduos que acreditam que não precisarão despender muitos esforços para utilizar a TI. Condições facilitadas para o uso, como suporte técnico, apoio institucional e compatibilidade entre softwares, igualmente influenciam o uso de forma positiva, assim como a influência social, que representa a interferência que a opinião de terceiros pode exercer sobre o comportamento do usuário da TI. Outras características também influenciam o uso, como a idade (pessoas mais jovens utilizam mais a TI), experiência no uso (pessoas mais experientes utilizam com maior freqüência), gênero (homens utilizam mais) e o grau de voluntariedade (pessoas que utilizam a TI de forma mais voluntária, utilizam menos).
Resumo:
A presente dissertação consiste em um exame do argumento que Kant apresenta na ‘Estética Transcendental’ (Crítica da Razão Pura, A26/B42) em defesa da não espacialidade das coisas em si mesmas. Esse exame está amplamente baseado na interpretação de Henry Allison, seja por assimilar algumas de suas teses interpretativas centrais, seja por insistir no diálogo com os textos do intérprete nos momentos em que deles se distancia ou diverge. São dois os eixos principais da leitura desenvolvida na dissertação. O primeiro é a compreensão da distinção transcendental entre coisas em si mesmas e aparições [Erscheinungen] conforme a assim chamada “teoria dos dois aspectos”. Fruto dos trabalhos de Gerold Prauss e de Allison, essa tese de interpretação reza que a distinção transcendental deve ser entendida não como uma oposição entre reinos disjuntos de entidades, mas como uma distinção de aspectos. O segundo pilar da leitura proposta é a defesa de uma concepção moderada da tese da não espacialidade. Nessa versão moderada, diversamente da formulação mais forte à qual a maioria dos intérpretes costuma aderir, a tese kantiana não estabeleceria que as coisas em si mesmas seriam não-espacias em todo e qualquer sentido que se pudesse conferir ao adjetivo ‘espacial’. Os primeiros capítulos da dissertação concentram-se em averiguar a solidez da teoria dos dois aspectos, em especial, em demonstrar sua compatibilidade com duas importantes teses kantianas, a afirmação que as aparições do sentido externo são espaciais e a referida tese da não espacialidade. O trabalho de conciliação resume-se a esclarecer como é possível afirmar, sem contradição, que aparições e coisas em si mesmas são as mesmas coisas (conquanto consideradas sob aspectos distintos) e que aparições possuem certas propriedades (determinações espaciais) que as coisas em si mesmas não possuem.A solução dessa dificuldade resultou na identificação de duas premissas fundamentais que uma caridosa interpretação baseada na teoria dos aspectos deveria reconhecer no argumento kantiano: de um lado, o princípio do caráter constitutivo da relação cognitiva, de outro, a admissão de uma estrutura judicativa peculiar: o juízo reduplicativo. O terceiro capítulo trata, por fim, do sentido da tese da não espacialidade. Em primeiro lugar, procurou-se desqualificar aquelas interpretações que pretendem fortalecer o peso lógico da tese. Essencial para essa fase crítica da argumentação foi a discussão de dois paradoxos recorrentes na literatura secundária: a célebre objeção suscitada por A. Trendelenburg (a alternativa negligenciada) e a dificuldade de conciliação entre as afirmações da não espacialidade e da incognoscibilidade das coisas em si mesmas. Em um segundo momento, buscou-se apresentar os fundamentos conceituais e exegéticos em favor de uma versão mais fraca da tese kantiana. Em síntese, a investigação pretendeu confirmar a proposição segundo a qual a não espacialidade das coisas em si mesmas, ainda que baseada nas condições ontológicas do representado, estaria prioritariamente fundada nas condições de representação, i.e., nas condições de atribuição dos conteúdos de uma representação consciente objetiva (cognição) ao representado.
Resumo:
Aborda questões relacionadas à progressão de carreira em um contexto cultural brasileiro, partindo-se do pressuposto de que a progressão de carreira é função primeiro da competência técnica do indivíduo e segundo da socialização interna que este sofre por parte da organização, refletindo-se na compatibilidade com os valores organizacionais. No entanto, no cenário brasileiro, considera-se um terceiro fator, relacionado a práticas culturais de associação e lealdade. Neste sentido, busca-se um entendimento das noções existentes dentro do conceito de carreira, socialização organizacional e cultura, através de um mapeamento do tratamento teórico recebido pelo tema. Posteriormente, trata-se a questão da cultura brasileira e suas influências no processo de mobilidade vertical dos indivíduos nas organizações, buscando-se evidenciar algum padrão. É apresentado um estudo de caso sobre carreiras de sucesso em uma organização de origem norte americana, onde procura-se verificar questões relativas ao contexto cultural brasileiro, e como tal contexto pode ter influenciado nestas trajetórias de sucesso, uma vez que o modelo de progressão de carreira é a nível mundial
Resumo:
Apresentamos a análise de diagramas cor-magnitude (CMDs) profundos para 5 aglomerados ricos da Grande Nuvem de Magalhães (LMC). Os dados fazem parte do projeto HST G07307, entitulado "Formação e Evolução de Aglomerados Estelares Ricos da LMC", e foram obtidos através do HST/WFPC2 nos filtros F555W (~ V) e F814W (~ I), alcançando V555~25. A amostra de aglomerados é composta por NGC 1805 e NGC 1818, os mais jovens (r < 100 Myr), NGC 1831e NGC 1868,de idades intermediárias (400 < r < 1000Myr), e Hodge 14, o mais velho (r > 1200Myr). Discutimos e apresentamos um método de correção dos CMDs para incompleteza da amostra e contaminação por estrelas de campo. O uso eficiente das informações contidas nos CMDs foi feito por meio de comparações entre os CMDs observados e CMDs modelados. O processo de modelamento de CMDs gera uma Seqüência Principal (MS) sintética, que utiliza como entrada do modelo a informação sobre idade (r), metalicidade (Z), Função de Massa do Presente (PDMF), fração de binárias não resolvidas, distância e extinção da luz. As incertezas fotométricas foram empiricamente determinadas a partir dos dados e incorporadas no modelamento. Técnicas estatísticas de comparação entre CMDs em 1D e 2D são apresentadas e aplicadas como métodos objetivos capazes de determinar a compatibilidade entre modelo e observação. Modelando os CMDs da região central dos aglomerados podemos inferir a metalicidade (Z), o módulo de distância intrínseco ((V - Mv)o) e o avermelhamento (E(B-V)) para cada aglomerado. Também determinamos as idades para os 3 aglomerados mais velhos de nossa amostra. Continuação) Através da comparação em 2D os valores encontrados foram os seguintes: para NGC 1805, Z = 0.007:1+-0.003, (V - Mv)o = 18.50:1+- 0.10, E(B - V) = 0.03:1+-0.01; para NGC 1818,Z = 0.005:1+-0.002, (V - Mv)o = 18.50:1+-0.15, E(B - V)~0.00; para NGC 1831, Z = 0.012:1+-0.002, log(r /yr) = 8.70 :I+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V)~ 0.00; para NGC 1868, Z = 0.008:1+-0.002,log(r/yr) =8.95:1+-0.05, (V - Mv)o = 18.70:1+- 0.05, E(B - V) ~0.00; para Hodge 14, Z = 0.008+-0.004, log(r/yr) = 9.23+-0.10, (V - Mv)o = 18.50+-0.15, E(B - V) = 0.02+- 0.02. Estes valores estão de acordo, dentro das incertezas, com os valores obtidos através da análise de linhas fiduciais (lD), o que agrega confiabilidade a estas determinações. Através da análise de CMDs em regiões concêntricas determinamos a dependência espacial da inclinação da PDMF (a) nos aglomerados mais ricos. Para tanto empregamos duas abordagens distintas para a determinação de a: 1) método tradicional em 1D via conversão direta de V555em massa; 2) método em 2D via modelmento de CMDs. Independente do método de análise, todos os aglomerados analisados demonstram claramente o efeito de segregação em massa. Além disso, NGC 1818, NGC 1831 e NGC 1868 apresentam uma possível perda seletiva de estrelas de baixa massa nas suas regiões mais externas.
Resumo:
A protensão não aderente é um sistema de pós-tensão caracterizado pela liberdade de deslizamento da armadura em relação ao concreto, ao longo de todo o perfil do cabo, com exceção das ancoragens. Devido à falta de aderência entre aço e concreto, a compatibilidade de deformações dos materiais na seção transversal não existe. O que se verifica é a compatibilidade de deslocamentos, com a equivalência entre os alongamentos do cabo e das fibras de concreto adjacentes ao mesmo. Isto acarreta complexidade no projeto de tais estruturas. No que se refere ao dimensionamento no Estado Limite Último, a tensão atuante nas armaduras não aderentes, também denominada tensão última de protensão, não é, a princípio, conhecida. Para sua obtenção, é fundamental a precisa determinação das curvaturas ao longo do elemento, tornando o desenvolvimento analítico de uma solução, praticamente inviável. Geralmente, são utilizados critérios empíricos para a previsão da tensão última de protensão em armaduras não aderentes. Estes levam em conta na sua formulação, parâmetros considerados como de grande influência no valor da tensão última de protensão. A fim de avaliar a significância de alguns destes fatores no valor da tensão última de protensão, um estudo paramétrico foi realizado. Parâmetros como a taxa de armadura, a tensão efetiva inicial de protensão, a relação entre a altura do elemento e o seu vão e, também, o tipo de carregamento, foram investigados. Para tal, um protótipo foi idealizado por meio de um modelo numérico Este modelo utiliza a formulação de elemento finito do tipo híbrido para pórticos planos, que é caracterizado pela precisa obtenção das curvaturas, e mostrou-se adequado para utilização na presente pesquisa. A análise dos resultados obtidos permitiu a identificação e quantificação da influência dos parâmetros estudados, no valor da tensão última de protensão. A relevância dos valores de tensão obtidos, em função dos parâmetros adotados, na capacidade portante dos elementos, foi também avaliada.
Resumo:
Esta dissertação descreve a implementação de um Sistema de Informações Geográficas (SIG) para a Área Antártica Especialmente Gerenciada (AAEG) da Baía do Almirantado, Ilha Rei George, Arquipélago das Schetland do Sul, Antártica. O trabalho constituiu na definição de equipamentos e do SIG (ARC/INFO) necessários para a operação do sistema e integração dos dados nos diferentes formatos. Os primeiros planos de informação para este SIG estão prontos: (1) altimetria; (2) batimetria; (3) linha de costa; (4) glaciologia; (5) áreas livres de gelo; (6) ocupação humana (feições antropogênicas); e (7) toponímias. Os resultados são apresentados através de quatro estudos, exemplificando algumas de suas aplicações no gerenciamento da área. Inicialmente realizou-se a revisão dos limites da AAEG, conforme sugestões do Protocolo ao Tratado Antártico sobre Proteção ao Meio Ambiente (Protocolo de Madri), a área total foi recalculada em 362km2 (anteriormente calculada em 370 km2). A partir da geração de um Modelo Digital de Elevação (MDE) obteve-se a visualização tridimensional da área, que possibilitou a descrição de algumas de suas características geomorfológicas e revisão de cálculos morfométricos. As águas da AAEG possuem um volume de 24,1km3, sendo 22,7 km3 pertencentes a Baía do Almirantado e 1,4km3 ao Estreito de Bransfield. Com a integração de dados multitemporais, quantificou-se a retração das frentes de gelo da Baía do Almiratado, constatando-se a perda de 22,5km2 de gelo (12% da cobertura atual) entre 1956 e 2000. E, finalmente, a Península Keller serviu como área teste para um pequeno estudo de impacto ambiental, sendo identificado conflito da ocupação humana com áreas de reprodução, constatando-se a ocorrência de impacto superior a um impacto menor ou transitório, segundo as definições do Protocolo Madri. A implementação do sistema seguiu os padrões de Working Group of Geodesy and Geographic Information (WG-GGI) do Scientific Committee on Antarctic Research (SCAR), permitindo a compatibilidade com projetos internacionais. O SIG serve como importante ferramenta de apoio ao gerenciamento da AAEG, podendo ser utilizado no planejamento de atividades científicas e logísticas, monitoramento e avaliações de impacto ambiental.
Resumo:
Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
Durante os últimos anos as áreas de pesquisa sobre Agentes Inteligentes, Sistemas Multiagentes e Comunicação entre Agentes têm contribuído com uma revolução na forma como sistemas inteligentes podem ser concebidos, fundamentados e construídos. Sendo assim, parece razoável supor que sistemas inteligentes que trabalhem com domínios probabilísticos de conhecimento possam compartilhar do mesmo tipo de benefícios que os sistemas mais tradicionais da Inteligência Artificial receberam quando adotaram as concepções de agência, de sistemas compostos de múltiplos agentes e de linguagens de comunicação entre estes agentes. Porém, existem dúvidas não só sobre como se poderia escalar efetivamente um sistema probabilístico para uma arquitetura multiagente, mas como se poderia lidar com as questões relativas à comunicação e à representação de conhecimentos probabilísticos neste tipo de sistema, principalmente tendo em vista as limitações das linguagens de comunicação entre agentes atuais, que não permitem comunicar ou representar este tipo de conhecimento. Este trabalho parte destas considerações e propõe uma generalização do modelo teórico puramente lógico que atualmente fundamenta a comunicação nos sistemas multiagentes, que será capaz de representar conhecimentos probabilísticos. Também é proposta neste trabalho uma extensão das linguagens de comunicação atuais, que será capaz de suportar as necessidades de comunicação de conhecimentos de natureza probabilísticas. São demonstradas as propriedades de compatibilidade do novo modelo lógico-probabilístico com o modelo puramente lógico atual, sendo demonstrado que teoremas válidos no modelo atual continuam válidos no novo modelo. O novo modelo é definido como uma lógica probabilística que estende a lógica modal dos modelos atuais. Para esta lógica probabilística é definido um sistema axiomático e são demonstradas sua correção e completude. A completude é demonstrada de forma relativa: se o sistema axiomático da lógica modal original for completo, então o sistema axiomático da lógica probabilística proposta como extensão também será completo. A linguagem de comunicação proposta neste trabalho é definida formalmente pela generalização das teorias axiomáticas de agência e comunicação atuais para lidar com a comunicação de conhecimentos probabilísticos e pela definição de novos atos comunicativos específicos para este tipo de comunicação. Demonstra-se que esta linguagem é compatível com as linguagens atuais no caso não-probabilístico. Também é definida uma nova linguagem para representação de conteúdos de atos de comunicação, baseada na lógica probabilística usada como modelo semântico, que será capaz de expressar conhecimentos probabilísticos e não probabilísticos de uma maneira uniforme. O grau de expressibilidade destas linguagens é verificado por meio de duas aplicações. Na primeira aplicação demonstra-se como a nova linguagem de conteúdos pode ser utilizada para representar conhecimentos probabilísticos expressos através da forma de representação de conhecimentos probabilísticos mais aceita atualmente, que são as Redes Bayesianas ou Redes de Crenças Probabilísticas. Na outra aplicação, são propostos protocolos de interação, baseados nos novos atos comunicativos, que são capazes de atender as necessidades de comunicação das operações de consistência de Redes Bayesianas secionadas (MSBNs, Multiple Sectioned Bayesian Networks) para o caso de sistemas multiagentes.
Resumo:
A Administração Pública goza de prerrogativas processuais, dentre elas prazos especiais para apresentação de defesas e recursos, que decorrem do princípio da supremacia do interesse público sobre o interesse privado. O Processo do Trabalho prima pela simplicidade e celeridade dos procedimentos judiciais, principalmente em razão da natureza das parcelas discutidas: natureza alimentar. O trabalhador, em geral parte hipossuficiente nas relações material e processual, não sobrevive dignamente, sem os recursos advindos de sua força de trabalho. Por isso, a necessidade de simplificar a forma dos processos trabalhistas e diminuir seu tempo de duração. Esta é a abordagem desta dissertação: questiona-se a compatibilidade dos prazos especiais assegurados à Administração Pública, quando se cuida de ações trabalhistas, em que, do outro lado da relação processual, há um trabalhador hipossuficiente, carente da solução judicial célere e efetiva. Principalmente a partir das novas interpretações do Direito Administrativo, pós Constituição de 1988, que adota como fundamento a dignidade da pessoa humana.
Resumo:
Este artigo busca modelar que incentivos são capazes de influenciar a decisão do trabalhador autônomo de participar ou não do sistema público de Previdência (INSS) utilizando um arcabouço de Teoria de Contratos (modelo de Principal e Agente). Por conta de alterações nas regras referentes à cessão de benefícios previdenciários presentes na Constituição Federal de 1988, supunha-se que os trabalhadores de renda mais baixa teriam incentivo para saírem do sistema. A análise empírica, entretanto, contradiz as previsões do modelo. Há um movimento generalizado de saída do sistema público de previdência e esse movimento É mais acentuado exatamente no grupo dos autônomos mais ricos. Em termos teóricos isto é explicado como uma violação das restrições de compatibilidade de incentivos. Em termos práticos pode-se pensar na maior oferta de fundos de pensão privados existente no mercado, concorrendo com o INSS.
Resumo:
A crescente preocupação com o meio ambiente, associada com o aumento da população e conseqüentemente da geração de resíduos, induz pesquisas no sentido de viabilizar o aproveitamento de resíduos como matéria-prima para a produção de materiais. O resíduo sólido gerado no processo de acabamento de peças de zamac é, devido às suas características iniciais, uma fonte potencialmente interessante de matéria-prima para a obtenção de produtos cerâmicos. Este trabalho apresenta um estudo de obtenção de materiais cerâmicos utilizando o resíduo sólido gerado no acabamento de peças de zamac como matéria-prima. Para tanto, foi realizada a caracterização do resíduo através de análise química, mineralógica, morfológica, termogravimétrica, granulométrica, determinação do teor de umidade, perda ao fogo, área superficial, bem como a caracterização quanto aos riscos ao meio ambiente. Para comprovar o potencial de utilização do resíduo como matéria-prima para a produção de materiais cerâmicos foram confeccionados corpos-de-prova utilizando somente o resíduo. Estes corpos-de-prova foram caracterizados quanto as suas propriedades físicas e mecânicas Devido ao fato dos corpos-de-prova confeccionados somente com o resíduo apresentarem alta porosidade e conseqüentemente baixa resistência mecânica, foram confeccionados corpos-de-prova com diferentes formulações de vidro adicionado ao resíduo. O vidro utilizado foi caracterizado quanto a sua distribuição granulométrica e composição química. Estes corpos-de-prova foram caracterizados quanto as suas propriedades físicas, mecânicas, mineralógicas, microestruturais. Também foi avaliada a compatibilidade ambiental do processo de queima de corpos-de-prova, através da determinação das emissões gasosas geradas no processo. Os resultados obtidos demonstram que o material cerâmico produzido pode ser utilizado como placas cerâmicas para revestimento.
Resumo:
Na tentativa de identificar possíveis vetores para transferência horizontal (fenômeno que vem sendo cada vez mais bem documentado) de elementos transponíveis entre espécies reprodutivamente isoladas de Drosophilidae, foi investigada a presença dos elementos transponíveis P e gypsy no genoma de quatro ácaros (parasitas ou potencialmente parasitas) e nove microhimenópteros parasitóides de Drosophila, através das técnicas de PCR e Southern blot. Estes organismos são parte integrante das guildas de invertebrados, cuja riqueza na Região Neotropical é particularmente expressiva. Em dois dos ácaros analisados (Proctolaelaps sp. e Macrocheles muscaedomesticae), reconhecidamente predadores de ovos de Drosophila, foram identificadas sequências com homologia a ambos os transposons, cuja forma de mobilização é diferente: gypsy é um retroelemento, com características de infectividade similares à dos retrovírus e P é um transposon de DNA, que usa uma transposase para mediar sua movimentação dentro e entre genomas. Embora seja ainda necessário isolar e clonar estas seqüências, de forma a permitir a sua comparação com os elementos P e gypsy de Drosophila, sugere-se a potencialidade destes ácaros como vetores de transferência horizontal. Dos genomas de oito entre os nove microhimenópteros (vespas) parasitóides de pupas de Drosophila estudados, foram amplificadas seqüências homólogas tanto com P, quanto com gypsy. Dada a compatibilidade ecológica e a íntima relação estabelecida entre essas vespas e Drosophila, a potencialidade desses organismos como vetores de transferência lateral entre taxa reprodutivamente isolados também é proposta.