998 resultados para estabilidade ao processamento e armazenamento


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta pesquisa é mostrar que há uma relação positiva entre a estabilidade política-institucional, a credibilidade e a taxa de poupança privada. Parte da literatura recente sobre disparidades entre taxas de poupança usa um argumento de economia política para explicar como a instabilidade política-institucional pode afetar as decisões públicas que determinam a poupança pública, mas não sugere da mesma forma que tal instabilidade pode atingir negativamente a poupança privada. Analisar-se-á esta lacuna da teoria partindo-se do referencial teórico da Nova Economia Institucional (NEI), onde salienta-se, nos processos de decisão privada de acumulação de ativos, o papel do governo gartantindo (i) a estabilidade das regras de mercado e (ii) os direitos de propriedade. A pesquisa envolverá uma análise teórica microeconômica da determinação da poupança privada usando a visão da NEI. O interesse prático fundamental da pesquisa é tentar justificar, em parte, os baixos níveis de poupança na América Latina usando um argumento institucionalista e, desta forma, propor ações de governo e reformas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A leflunomida é um pró-fármaco anti-reumático encontrado na forma de comprimidos revestidos com nome comercial ARAVA que, in vivo, é rápida e extensamente convertida a seu metabólito ativo A77 1726. Considerando a ausência de metodologia de controle de qualidade na literatura para a leflunomida, foram desenvolvidos métodos de caracterização e quantificação da leflunomida matéria-prima e na forma de comprimido, além de estudo preliminar de sua estabilidade. As técnicas de ponto de fusão, espectroscopia no IV, RMN 1H e 13C e CLAE associada a detector de arranjo de diiodos foram utilizadas para identificação e caracterização da leflunomida. O A77 1726 foi sintetizado e caracterizado pelas técnicas de espectroscopia no IV, RMN 1H e 13C, CLAE e DSC. Foi desenvolvido e validado método analítico para quantificação da leflunomida em comprimidos por CLAE utilizando coluna C18, ACN:água (50:50) como fase móvel e detecção em 254 nm. O método apresentou parâmetros cromatográficos adequados e parâmetros de desempenho analítico satisfatórios, com limite de detecção de 10 ng/mL. Método por espectroscopia derivada no UV foi desenvolvido e validado como alternativa para quantificação da leflunomida em comprimidos. A comparação do método por UV derivada com a CLAE, para determinação da leflunomida em comprimidos, mostrou que os métodos são intercambiáveis, creditando a técnica de UV para testes de controle de qualidade de rotina. Foram realizados estudos de degradação forçada dos comprimidos de leflunomida submetendo amostras à temperatura de 80 ºC ou exposição à radiação UV a 254 nm com lâmpada germicida. O principal produto de degradação encontrado foi o A77 1726. Além disso, outro produto de degradação, com tempo de retenção de 5,5 min (CLAE), apresentou quantidades significativas no estudo de degradação térmica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This project intends to analyse quality management in Brazilian processing segment. The study was undertaken through the mailing of an extensive questionnaire to a convenience sample of large-, mid- and small-sized companies. The survey covers social-organizational, technical-technological and economical-competitive aspects of the firms. It has appraised the procedures used in quality management as well as the results achieved by firms on this respect. This research is part of a worldwide program on quality management, under the coordination of Prof. Gustavo Vargas from California State University at Fullerton.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta pesquisa é mostrar empiricamente que há uma relação positiva entre a estabilidade política-institucional e a poupança. Em primeiro lugar, a pesquisa procura aprofundar, vis-à-vis a literatura contemporânea sobre o tema, a análise teórica microeconômica da determinação da poupança privada, levando em consideração argumentos derivados da Nova Economia Institucional. Em segundo lugar, a pesquisa envolve seis testes em cross-section, considerando economias em desenvolvimento e desenvolvidas, dentro de um modelo de determinação de poupança que incorpora um índice de satisfação do direito de propriedade (PROP) como uma das variáveis explicativas. A principal conclusão, empírica, reforça a recomendação normativa segundo a qual direitos de propriedade bem definidos e garantidos pelo Estado são fundamentais para assegurar a estabilidade institucional necessária para fomentar a formação de poupança na economia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A perda de material, na forma de sobras ou resíduos, no processamento das toras de madeira, além de ser uma variável muito importante para o gerenciamento da produção é responsável por uma parcela significativa dos impactos ambientais causados pela produção de madeira serrada. A quantificação e a identificação dos resíduos do processamento (desdobro) da madeira são componentes fundamentais para o estudo de suas possibilidades de aproveitamento como insumo de outros produtos. Tradicionalmente o aproveitamento dos resíduos ou sobras pelas serrarias tem sido utilizados em caldeiras para geração de vapor para a secagem da madeira processada e para produzir energia elétrica. Mas os resíduos e sobras, que são uma fonte de matéria-prima madeireira, também podem ser empregados para a produção de outros produtos, tais como: chapas e painéis. O presente trabalho consistiu de uma pesquisa realizada em serrarias das três principais regiões produtoras de madeira serrada do Rio Grande do Sul, as quais processam madeira de espécies de Eucalyptus spp. e Pinus spp. A pesquisa visou obter informações a respeito do processo produtivo de madeira serrada de florestas plantadas por serrarias e sua consequente geração de resíduos e sobras. Os resultados obtidos, além de estabelecerem um diagnóstico da produção de madeira serrada de florestas plantadas e da conseqüente geração de resíduos e sobras pelas serrarias no Rio Grande do Sul, revelam aspectos referentes ao atual destino e o aproveitamento potencial dos resíduos e sobras, neste caso para a produção de painéis ou chapas de madeira reconstituída Esta pesquisa e a análise dos dados coletados trazem, ainda, contribuições para o estabelecimento de formas e programas de redução na geração, qualificação e utilização de resíduos e sobras, como mecanismo de redução dos impactos ambientais negativos, através da substituição do processo da queima ou dispensa indevida na natureza, dando ênfase na sustentabilidade ambiental e econômica no uso do insumo madeira. O aproveitamento de sobras e resíduos serve, ainda, para agregar valor à madeira e para o emprego em produtos com base na madeira consumidos por setores industriais importantes, tal como a construção civil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A descoberta e a análise de conglomerados textuais são processos muito importantes para a estruturação, organização e a recuperação de informações, assim como para a descoberta de conhecimento. Isto porque o ser humano coleta e armazena uma quantidade muito grande de dados textuais, que necessitam ser vasculhados, estudados, conhecidos e organizados de forma a fornecerem informações que lhe dêem o conhecimento para a execução de uma tarefa que exija a tomada de uma decisão. É justamente nesse ponto que os processos de descoberta e de análise de conglomerados (clustering) se insere, pois eles auxiliam na exploração e análise dos dados, permitindo conhecer melhor seu conteúdo e inter-relações. No entanto, esse processo, por ser aplicado em textos, está sujeito a sofrer interferências decorrentes de problemas da própria linguagem e do vocabulário utilizado nos mesmos, tais como erros ortográficos, sinonímia, homonímia, variações morfológicas e similares. Esta Tese apresenta uma solução para minimizar esses problemas, que consiste na utilização de “conceitos” (estruturas capazes de representar objetos e idéias presentes nos textos) na modelagem do conteúdo dos documentos. Para tanto, são apresentados os conceitos e as áreas relacionadas com o tema, os trabalhos correlatos (revisão bibliográfica), a metodologia proposta e alguns experimentos que permitem desenvolver determinados argumentos e comprovar algumas hipóteses sobre a proposta. As conclusões principais desta Tese indicam que a técnica de conceitos possui diversas vantagens, dentre elas a utilização de uma quantidade muito menor, porém mais representativa, de descritores para os documentos, o que torna o tempo e a complexidade do seu processamento muito menor, permitindo que uma quantidade muito maior deles seja analisada. Outra vantagem está no fato de o poder de expressão de conceitos permitir que os usuários analisem os aglomerados resultantes muito mais facilmente e compreendam melhor seu conteúdo e forma. Além do método e da metodologia proposta, esta Tese possui diversas contribuições, entre elas vários trabalhos e artigos desenvolvidos em parceria com outros pesquisadores e colegas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o presente trabalho tem como objetivo analisar o impacto do mérito, da estabilidade e do desempenho sobre o comportamento do servidor público brasileiro. São apresentadas a falta de um sistema eficiente de mérito, deficiências na aplicação e adequação de mecanismos de avaliação de desempenho, a estabilidade concedida aos servidores públicos, além de distorções da burocracia, como os elementos de maior relevância para a perda de motivação dos servidores públicos, a queda nos níveis de desempenho do setor e, por conseguinte, a insatisfação e falta de credibilidade por parte da sociedade como usuária dos serviços públicos. Como referencial teórico, são estudadas a Teoria da Administração, a Teoria da Motivação, a Teoria da Burocracia e Cultura Organizacional, por encontrarem-se estreitamente relacionadas ao tema objeto do estudo. Para melhor entender as origens socioculturais do problema, é realizada uma retrospectiva histórica sobre as origens do funcionalismo público em nosso país, desde o período colonial até os dias de hoje, apresentando os dispositivos relativos a mérito, desempenho e estabilidade, constantes nas Constituições brasileiras, com seus efeitos sobre o atual Regime Jurídico Único. Em seguida, são apresentados os verdadeiros conceitos e objetivos desses dispositivos, justificando a necessidade de sua existência, identificando algumas de suas distorções, principalmente no que diz respeito à estabilidade e à burocracia. Dando prosseguimento à discussão sobre o tema, são discutidas as principais propostas de reforma administrativa, enfatizando uma possível flexibilização da estabilidade, com base no desempenho. Depois de serem apresentadas sugestões e propostas para solução de alguns problemas levantados, o estudo conclui afirmando ser indispensável ter o mérito como parâmetro para ingresso e ascensão nas carreiras do setor público, além da existência e constante aperfeiçoamento de instrumentos de avaliação de desempenho legítimos, para incentivar o bom desempenho e a criatividade. Da mesma forma, é destacada a importância da estabilidade como mecanismo de proteção do setor público contra práticas de nepotismo e perseguições políticas, sendo identificados alguns pontos fortes da burocracia, que vão de encontro aos critérios de impessoalidade e hierarquia, indispensáveis em um sistema meritocrático.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho objetivou-se estudar como as diferenças no nível de conhecimento do decisor afetam a tomada de decisões, procurando aumentar o entendimento de diferentes resultados do processo decisório. Contemplou-se três grandes áreas: o processo decisório, a perspectiva cognitiva no processo decisório e a influência do nível de conhecimento sobre o objeto de decisão no processo de decisão. Utilizando uma tarefa decisória com múltiplas alternativas e múltiplos atributos realizou-se uma pesquisa do tipo experimental onde foram controladas as variáveis qualidade da informação, complexidade da tarefa decisória e tomadores de decisão especialistas e novatos. Após formuladas e testadas as hipóteses, chegou-se à conclusão de que decisores com menos conhecimento possuem menor autoconfiança excessiva e menor consistência no resultado da decisão do que decisores com mais conhecimento, sendo indiferente o consenso na comparação entre os mesmos. Quanto às estratégias decisórias, os decisores com menos conhecimento se utilizam mais de estratégias não compensatórias para chegar a escolha do que decisores com mais conhecimento. Tomadores de decisão com mais conhecimento cometem menor número de transgressões do método multicritério do que aqueles com menos conhecimento, porém há indicações de que os primeiros possuem mais motivos explícitos para as transgressões do que os últimos. Os dois grupos não diferem significativamente no tempo e número de passos para resolução das tarefas, mas durante o processo decisório para chegar a decisão final, os decisores com mais conhecimento são mais lineares do que aqueles com menos conhecimento, ou seja, se valem de menor número de passos e repetições para chegar à escolha final.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese estuda a dinâmica do jogo regulatório brasileiro e como ela é capaz de proporcionar estabilidade de regras e contratos, apesar da pouca autonomia das agências reguladoras brasileiras em relação aos poderes políticos, contrariando a literatura que deu origem ao modelo regulatório recentemente instalado no Brasil. Buscou-se trazer de volta à discussão das agências o papel da política, negligenciado nos modelos teóricos tradicionalmente aplicados à regulação. Para tanto foram incluídas no modelo analítico abordagens teóricas relacionadas ao controle da burocracia e à teoria principal-agente. Assim, por meio do estudo de três agências reguladoras – Agência Nacional de Telecomunicações (Anatel), Agência Nacional de Energia Elétrica (Aneel) e Agência Nacional de Saúde Suplementar (ANS) – identificamos que a interação entre os diversos atores e instituições envolvidos em cada setor, incluindo os representantes políticos, o Judiciário, os atores setoriais e as regras procedimentais das agências acaba fornecendo ao sistema condições de estabilidade e de garantia dos contratos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Efetua uma análise sobre a Amplitude dos Problemas de Comunicação Intraorganizacional entre a Estrutura de Processamento de Dados e o restante de uma Organização e determina suas possíveis causas, com base no Modelo de Empresa como um Sistema Sócio-Técnico Aberto. Para tal fim: consulta-se não só bibliografia tradicional norte-americana como também brasileira e japonesa; adota-se uma postura tanto quanto eclética e também menos ortodoxa, sem no entanto se ter a pretensão de polemizar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A alimentação não é uma simples ingestão de calorias, necessárias à sobrevivência. Ela também envolve uma vasta gama de aspectos simbólicos, que expressam relações e pertencimentos grupais. Os Mbyá-Guarani atribuem sentidos aos seus alimentos (desde a sua produção, armazenamento, processamento, preparação e consumo) que mantêm estreita relação com seus atributos étnicos e cosmológicos. Desta maneira, a presente dissertação tem como objetivo uma análise antropológica das práticas alimentares que ocorrem neste grupo indígena. Mais precisamente, busca-se verificar de que maneira as práticas alimentares estão relacionadas com suas concepções cosmológicas e de que forma são utilizadas como sinais diacríticos delimitadores de suas especificidades étnicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação procura mostrar uma metodologia de apuração e distribuição de custos de sistemas e processamento de dados e sua integração em controles gerenciais de conglomerados financeiros, através da exploração de um modelo de avaliação econômica por centro de responsabilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo o levantamento e análise de fatores intervenientes na capacidade de processamento de veículos em cabines de praças de pedágio com o recolhimento manual de tarifas. Buscando o entendimento de como estes fatores interferem nos tempos de atendimento nas cabines foi realizada uma análise estatística e posterior modelagem, que utilizou redes neurais artificiais. Redes neurais artificiais são úteis no entendimento de problemas com alto grau de complexidade, que agregam diversas variáveis de entrada com relações não-lineares entre si. As variáveis de entrada escolhidas para a modelagem foram forma de pagamento, intensidade de fluxo, valor das tarifas e classes de veículos. A variável de saída foi o tempo de atendimento nas cabines de cobrança de pedágios. Foram obtidos três modelos que buscaram refletir a variação dos tempos de atendimento para um mesmo conjunto de dados de entrada: Modelo de Tempos Mínimos de Atendimento; Modelo de 85° Percentil de Tempos de Atendimento, e; Modelo de Tempos Máximos de Atendimento. As análises de sensibilidade dos modelos indicaram que tempos de atendimento são fortemente influenciados pelo fluxo de veículos nas praças. Quanto mais intenso o fluxo de veículos, tempos mínimos de atendimento tendem a sofrer leve aumento, indicando pequena perda de rendimento do processo. Perda de rendimento pode ser resultado de (i) necessidade de digitação das placas de licença dos veículos no sistema operacional das praças-dificuldade de visualização das mesmas em situação de filas, e (ii) desgaste físico dos arrecadadores. O desgaste físico dos arrecadadores também se apresenta como provável causa para o aumento de tempos mínimos de atendimento para fluxos altos. Quanto mais intenso o fluxo de veículos, menores são os tempos máximos de atendimento. Quanto maior o fluxo de veículos nas praças, as modelagens indicam uma maior estabilidade do sistema com relação ao processamento de veículos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.